Dilemas digitales: la IA ética en un mundo globalizado

La implementación de la Inteligencia Artificial para abordar desafíos globales marca un momento definitorio en la evolución tecnológica, yuxtapone la promesa de soluciones innovadoras frente al telón de fondo de dilemas éticos.

Guglielmo Tamburrini
Guglielmo Tamburrini
Un dron MQ-9 Reaper, equipado con municiones guiadas con precisión e inteligencia artificial, completa un aterrizaje autónomo y es dirigido en la pista. Foto por la Guardia Nacional de California.

Desafíos globales como pandemias, hambre y crisis climáticas exigen soluciones innovadoras, y la IA está en la vanguardia de esta batalla. Su aplicación abarca desde mejorar los mecanismos de respuesta a pandemias hasta optimizar las redes de distribución de alimentos e implementar estrategias de acción climática. Sin embargo, la implementación de la IA no está exenta de dilemas éticos. Estos incluyen su sustancial huella de carbono y su creciente uso en operaciones militares, lo que presenta preocupaciones morales significativas.

Este escenario subraya la urgente necesidad de una gobernanza ética rigurosa que alinee las vastas capacidades de la IA con responsabilidades morales globales y valores humanos, abogando por un enfoque equilibrado que aproveche el potencial de la IA para el bien mayor mientras mitiga sus riesgos éticos. Este equilibrio es crucial para navegar las complejidades de utilizar la IA para abordar desafíos universales, asegurando que los avances tecnológicos contribuyan positivamente al bienestar global y mantengan los principios del humanismo digital.

IA y el dilema climático: Navegando la huella ambiental

Las implicaciones éticas de la IA en la mitigación de la crisis climática son profundas y multifacéticas. Las tecnologías de IA presentan oportunidades revolucionarias para monitorear y reducir las emisiones de carbono, notablemente en sectores de alto impacto como el transporte, la producción de energía y la fabricación industrial. Estas tecnologías pueden analizar vastos conjuntos de datos para identificar patrones, predecir resultados y sugerir estrategias que reduzcan significativamente el impacto ambiental.

Es necesario un esfuerzo concertado por parte de los interesados en la IA para establecer directrices claras, políticas e incentivos para una IA más verde.

Sin embargo, el desarrollo y la operación de los sistemas de IA consumen una cantidad considerable de energía, contribuyendo a menudo a la huella de carbono que buscan reducir. Esta paradoja subraya la necesidad crítica de un enfoque equilibrado, donde el potencial de la IA para impulsar la acción climática se armonice con prácticas sostenibles.

Los esfuerzos para evaluar y mitigar el impacto ambiental de la IA están cobrando impulso, con iniciativas que enfatizan la importancia de considerar todo el ciclo de vida de los sistemas de IA, desde el entrenamiento de algoritmos hasta el almacenamiento de datos. El desafío requiere desarrollar métricas y modelos precisos para cuantificar la huella de carbono de la IA dentro del sector más amplio de las tecnologías de la información y la comunicación (TIC). Este esfuerzo se complica por la necesidad de tener en cuenta los cambios inducidos por la IA en el comportamiento social, incluidos los cambios en el trabajo, el ocio y los patrones de consumo.

Abordar estos desafíos requiere un esfuerzo concertado por parte de los interesados en la IA para establecer directrices claras, políticas e incentivos para una IA más verde. Estos deben apuntar a limitar el consumo de energía de los proyectos y aplicaciones comerciales de IA, asegurando al mismo tiempo un acceso equitativo a los recursos de IA. Además, las decisiones sobre qué datos recopilar, conservar o descartar deben tomarse teniendo en cuenta la sostenibilidad ambiental. Solo a través de una gobernanza integral pueden las tecnologías de IA alinearse verdaderamente con los objetivos globales de sostenibilidad, asegurando que contribuyan positivamente a la lucha contra la crisis climática mientras mantienen la justicia climática y la distribución equitativa del costo ambiental de la IA.

Abordando los desafíos de la militarización de la IA

La creciente militarización de la IA plantea importantes preocupaciones morales. Notablemente, el debate ético en torno a los sistemas de armas autónomos (AWS) gira en torno a la protección de la vida y la dignidad humanas, demandas cruciales reconocidas en el derecho internacional humanitario (DIH). Surgen preocupaciones debido al potencial de los AWS para violar los principios del DIH, como se demostró en el laboratorio por instancias de sistemas perceptuales de IA que confunden objetos civiles con objetivos militares. Esto plantea preguntas sobre la responsabilidad por las acciones de los AWS equivalentes a crímenes de guerra.

Además, el uso de los AWS se ve como una violación de la dignidad humana, ya que las decisiones de quitar vidas deberían presuponer un reconocimiento de la personalidad de los afectados. Sin tomadores de decisiones humanos, los AWS carecen de las relaciones interpersonales necesarias para reconocer la dignidad de las víctimas potenciales, socavando las justificaciones éticas para decisiones automáticas de vida o muerte en la guerra.

Los esfuerzos internacionales, expresados por el Comité Internacional de la Cruz Roja, el Secretario General de la ONU y coaliciones de ONGs, como la Campaña para Detener los Robots Asesinos, abogan por la prohibición de los AWS letales que escapan al control humano significativo, motivados por principios del DIH, la protección de la dignidad humana y las amenazas a la paz y la estabilidad. Los AWS podrían facilitar una guerra más fácil con menos soldados involucrados, llevar a interacciones impredecibles en el campo de batalla y superar las capacidades cognitivas humanas, acelerando los conflictos.

La crisis climática y la militarización de la IA subrayan la distinción entre preocupaciones éticas locales y más globales.

En el ámbito de la ciberguerra, los sistemas de IA presentan desafíos similares. Potencialmente ofrecen capacidades defensivas y amenazas de ciberataques más eficientes, generando preocupaciones sobre ataques a infraestructuras críticas, incluidos ataques a infraestructuras de software modernizadas para el mando y control de armas nucleares. La combinación de ciberarmas de IA con capacidades nucleares aumenta el riesgo para la estabilidad global y la civilización humana, haciendo eco de advertencias que se remontan al Manifiesto Russell-Einstein en 1955.

El desarrollo de AWS y la IA para conflictos cibernéticos señala una carrera más comprensiva hacia la militarización de la IA, necesitando regulación internacional para prevenir una proliferación descontrolada. El humanismo digital, basado en valores éticos universales y la protección de la dignidad humana, emerge como un marco vital para guiar las políticas en este dominio. Enfatiza la necesidad de priorizar consideraciones éticas y el bienestar humano en el desarrollo y despliegue de tecnologías de IA, abogando por medidas para limitar los daños potenciales de la militarización de la IA.

Conclusión: Navegando dilemas digitales

En conclusión, mientras que gran parte del discurso ético de la IA se ha centrado en problemas localizados dentro de dominios de aplicación específicos, como la discriminación y la equidad en aprobaciones automáticas de préstamos, admisiones escolares o decisiones de contratación, nuestra atención aquí se ha desplazado hacia las implicaciones globales más amplias de la ética de la IA. Ejemplos destacados como la crisis climática y la militarización de la IA subrayan la distinción entre preocupaciones éticas locales y más globales, enfatizando la necesidad de una gobernanza integral en todos los niveles al navegar los roles éticamente ambiguos de la IA.

Reconocer el impacto de la IA en amenazas a gran escala para la humanidad, como la crisis climática y los riesgos para la paz internacional es central para perseguir los objetivos del humanismo digital. Al abordar estos desafíos éticos globales, que trascienden contextos individuales, nos esforzamos no solo por asegurar el bienestar de todos los miembros de la especie humana sino también por promover valores humanos universales a medida que continuamos integrando tecnologías de IA en nuestras sociedades.

Adaptado de un trabajo académico para un público más amplio, bajo licencia CC BY 4.0

Compartir este artículo
Profesor de Filosofía de la Ciencia y la Tecnología en la Università di Napoli Federico II en Italia. Sus intereses de investigación se centran en temas ELSE (Éticos, Legales y SocioEconómicos) que surgen en el contexto de la IA, las interacciones hombre-computadora y hombre-robot.