Tecnología

¿La humanidad está a punto de enfrentar un mundo de robots asesinos? Expertos revelan sus nuevos temores a la IA

Especialistas temen la aparición de máquinas de guerra más eficientes para acabar con las personas.

Redacción Tecnología
8 de diciembre de 2023
Fin de la humanidad / Imagen de referencia
Expertos temen que el uso de armas con IA lleve a otro nivel los conflictos bélicos. | Foto: Ilustración creada con la IA de Bing Image Creator

La posibilidad de que pronto se desplieguen sistemas de armas letales autónomas en campos de batalla presenta una necesidad urgente de tomar medidas a escala mundial para regular estas tecnologías.

Es la conclusión de un nuevo libro, titulado ‘La carrera militar de la IA: buena gobernanza común en la era de la inteligencia artificial’, escrito por Denise García, profesora de ciencias políticas y asuntos internacionales en la Universidad de Northeastern, quien formó parte del Panel Internacional para la Regulación de Armas Autónomas de 2017 a 2022.

A medida que avanza la inteligencia artificial, las armas de guerra se vuelven cada vez más capaces de matar personas sin una supervisión humana significativa, lo que plantea preguntas inquietantes sobre la forma en que se llevarán a cabo las guerras de hoy y de mañana.

Además, cómo los sistemas de armas autónomos podrían debilitar la rendición de cuentas cuando se trata de posibles violaciones del derecho internacional que acompañan su despliegue.

En las guerras modernas se usan los drones como un recurso para atacar al enemigo.
En las guerras modernas se usan los drones como un recurso para atacar al enemigo. | Foto: Ilustración generada por IA Bing Image Creator

En su libro, Denise García condensa estas sombrías realidades y explora los desafíos que supone “crear un marco de gobernanza global” que anticipe un mundo de sistemas de armas de IA desenfrenados en el contexto del deterioro del derecho y las normas internacionales.

Así, resalta que ya se han implementado aplicaciones militares de IA en los conflictos en curso en Europa y Medio Oriente, y uno de los más famosos ejemplos de ello es la Cúpula de Hierro de Israel.

1
1 | Foto: Reuters / Amir Cohen

“El mundo debe unirse y crear nuevos bienes públicos globales, que yo diría que deben incluir un marco para gobernar la IA, pero también reglas comúnmente acordadas sobre el uso de la IA en el ejército”, dice García en un comunicado de su universidad.

Esta experta advierte que acelerar la IA militarizada como tal no es el enfoque correcto y corre el riesgo de añadir más volatilidad a un sistema internacional que ya es muy inestable. “En pocas palabras, no se debe confiar en la IA para tomar decisiones sobre la guerra”, dice.

Unos 4.500 investigadores de IA y robótica han dicho colectivamente que la IA no debería tomar decisiones con respecto al asesinato de seres humanos. Una posición, señala García, que se alinea con las directrices del Parlamento Europeo y la regulación de la Unión Europea.

Sin embargo, los funcionarios estadounidenses han presionado por un paradigma regulatorio de pruebas y diseños rigurosos de modo que los seres humanos puedan utilizar la tecnología de inteligencia artificial “para tomar la decisión de matar”.

“Esto parece bueno sobre el papel, pero es muy difícil de lograr en la realidad, ya que es poco probable que los algoritmos puedan asimilar la enorme complejidad de lo que sucede en la guerra”, dice García.

Ilustración creada con inteligencia artificial que muestra cómo sería la telepatía digital entre los seres humanos.
Funcionarios estadounidenses han presionado por un paradigma regulatorio de pruebas y diseños rigurosos de modo que los seres humanos puedan utilizar la tecnología de inteligencia artificial “para tomar la decisión de matar”. | Foto: Creación de la IA de Bing image creator

Los sistemas de armas de IA no sólo amenazan con alterar las normas de rendición de cuentas bajo el derecho internacional, sino que también hacen que el procesamiento de crímenes de guerra sea mucho más difícil debido a los problemas asociados con la atribución de “estatus de combatiente” a la tecnología militar de IA, dice García.

“El derecho internacional (y las leyes en general) han evolucionado hasta centrarse en el ser humano”, afirma. “Cuando se inserta un robot o un software en la ecuación, ¿quién será el responsable?”

Y continúa: “Las dificultades de atribución de responsabilidad acelerarán la deshumanización de la guerra. Cuando los humanos sean reducidos a datos, la dignidad humana se disipará”.

Las aplicaciones militares existentes de IA y cuasi-IA ya han causado sensación en los círculos de defensa. Una de esas aplicaciones permite a una sola persona controlar múltiples sistemas no tripulados, según una fuente, como un enjambre de drones capaces de atacar por aire o bajo el mar.

En la guerra de Ucrania, por ejemplo, las municiones merodeadoras (aviones no tripulados que utilizan sensores para identificar objetivos, o “drones asesinos”) han generado un debate sobre exactamente cuánto control tienen los agentes humanos sobre las decisiones sobre los objetivos.

Con información de Europa Press.