Q uitarnos el empleo es apenas lo más gracioso que pueden hacernos los robots. Siete países etán construyendo máquinas automatizadas basadas en inteligencia artificial, especializadas en matar personas y elegir sus blancos sin intervención humana. No es un capítulo de Black Mirror –aunque parece–, sino una realidad tenebrosa, y una liga mundial quiere detener esta amenaza. La campaña Stop Killer Robots (Detener a los robots asesinos) llegó a Colombia por iniciativa de la Campaña Colombiana Contra Minas y la Universidad Jorge Tadeo Lozano, que quieren sensibilizar al país respecto a un tema que ya no solo es asunto de Hollywood. ¿Quién responderá por ataques contra civiles? ¿El comandante, el programador, el fabricante, el Gobierno o el propio robot? Los enjambres de microdrones Perdix o el robot SGR-A1, entre otros, ya han sido probados y están en operación. Pueden elegir sus blancos, tomar decisiones y funcionar en modo autónomo. El Pentágono probó 103 microdrones Perdix en marzo de 2016, y estos mostraron un comportamiento sorprendente: tomaron decisiones colectivas e hicieron formación adaptativa del vuelo, tal como hacen los enjambres de aves en la naturaleza. El enjambre no tiene un líder, sino que cada Perdix se comunica con los demás y colabora en la inteligencia colectiva; si un dron sale del enjambre, este se reorganiza, así que una misión no se ve afectada por la pérdida de algunos de sus miembros. Este sistema fue desarrollado por investigadores del MIT, para el Departamento de Defensa norteamericano. Le recomendamos: Inteligencia artificial: la clave para vigilar a los estudiantes en China SGR-A1, creada por Samsung para el Ejército coreano, vigila la frontera con Corea del Norte y tiene la capacidad de disparar por decisión propia, guiada por un algoritmo, o de no hacerlo si el blanco levanta las manos en señal de rendición. El secretario general de Naciones Unidas, António Guterres, dijo el año pasado ante la Asamblea General: “Digámoslo como es: la perspectiva de máquinas con el criterio y el poder para acabar con vidas humanas es moralmente repugnante”. La campaña Stop Killer Robots (Detener a los robots asesinos) llegó a Colombia por iniciativa de la Campaña Colombiana Contra Minas y la Universidad Jorge Tadeo Lozano, que quieren sensibilizar al país respecto a un tema que ya no solo es asunto de Hollywood. Los defensores de estas armas tienen sus argumentos: no habrá pérdidas de soldados ni daños colaterales, no se cansan, y en el cálculo costo-beneficio son más económicas que mantener un soldado e indemnizar a su familia si muere.

Igorek es un prototipo en desarrollo, de un soldado robot construido por la compañía rusa Kalashnikov. “Es escalofriante pensar que se pueda subcontratar la matanza de humanos a un robot; la potestad de matar no puede transferirse a una máquina. El derecho no admite eso”, explica la profesora Roser Martínez, de la Universidad Autónoma de Barcelona, y una de las líderes mundiales de la campaña que busca prohibir el desarrollo de este tipo de armamento. Para ella, que asesora al Parlamento Europeo en esta materia, los Estados deben mantener el control humano sobre el uso de la fuerza, pues lo contrario podría desatar una serie de eventos catastróficos incontrolados. La campaña Stop Killer Robots insta a los Estados a prohibir las armas autónomas, es decir, sin control humano. Pone énfasis en la prohibición, no en la regulación, y rechaza los “mercenarios algorítmicos” que pueden llevar al fin de la humanidad, explica Martínez. Puede ver: ¿Cuáles son las mayores amenazas que pueden acabar con la humanidad? ¿Por qué Colombia debe interesarse en este tema? Podría pensarse que es un problema lejano para nosotros. Pero Naciones Unidas ya lo está discutiendo, y los promotores en el país quieren que Colombia tome una postura. “Después de tantos años de conflicto y de ser un país con el mayor número de minas antipersonales, Colombia puede liderar ese tema; las minas son pioneras en el segmento de armas automatizadas que reemplazaban soldados para cuidar una guarnición militar”, explica el profesor Carlos Andrés Gómez, director del programa de Derecho de la Universidad Jorge Tadeo Lozano. Hay una diferencia entre armas automatizadas y autónomas. Las minas eran lo primero y los robots con inteligencia artificial son lo segundo. Pero las minas antipersona vienen a ser como el antepasado directo de estas armas letales inteligentes. No es que ya circulen por las calles máquinas tipo Skynet como las que vimos en la saga Terminator, disparando contra toda forma de vida que detecten. ¿O sí? La compañía rusa Kalashnikov, fabricante del legendario fusil de asalto AK-47, exhibió el año pasado un gigantesco soldado humanoide que bautizó Igorek. Aunque es todavía un prototipo en desarrollo, la demostración pública causó nerviosismo. Cuatro metros de altura y 4,5 toneladas de peso en una máquina de combate que estará lista en 2020, según anunció el fabricante. El Gobierno británico tiene a Taranis (bautizado así en honor al dios celta del trueno), un avión de combate autónomo, desarrollado por el contratista de defensa BAE Systems Military Air, que puede ejecutar misiones de vigilancia, espionaje, transporte, y ataques en territorio enemigo. Y los radares poseen grandes dificultades para detectarlos. Israel tiene a Harpy (Harpía), un enorme misil “merodeador”, que puede permanecer hasta nueve horas husmeando señales de radar enemigas y atacarlas autónomamente una vez las encuentre. El fabricante, Aerospace Industries de Israel, ha vendido estas máquinas a China, India, Corea del Sur, Turquía y, desde luego, al Gobierno israelí. El Pentágono tiene también a SeaHunter, un submarino de 40 metros de eslora que puede operar hasta por tres meses sin tripulación. Y Francia desarrolla a Neuron, una máquina autónoma voladora de combate que tendrá capacidades de ataque y de comunicarse con otras armas de su tipo. A los promotores de la campaña les preocupan muchas cosas. El peligro de los robots asesinos no se limita a un contexto de guerra, sino a la vida civil, entre ciudadanos. Roser Martínez advierte que las armas podrían pasar a manos privadas, tanto en países en donde la autodefensa armada es un derecho como en Estados Unidos, o una realidad, como en Colombia. Y podrían utilizarlos grupos terroristas, Estados corruptos, milicias armadas y ciudadanos que creen necesario usarlas. En Estados Unidos, nación que además se opone a prohibir los robots autónomos para uso militar, circulan 300 millones de armas de defensa personal en manos de los ciudadanos. Le puede interesar: La guerra por el 5G: la cuarta revolución industrial Los cuestionamientos éticos saltan a la vista. No está probado que los aparatos puedan distinguir a un soldado enemigo de uno propio. ¿Quién responderá por ataques contra civiles? ¿El comandante, el programador, el fabricante, el Gobierno o el propio robot? De ahí la urgencia de lograr una convención mundial que prohíba estas monstruosidades, tal como el mundo prohibió las bombas de racimo, las minas antipersona y cinco armas letales más.

Roser Martínez, experta internacional y promotora de la campaña contra los robots asesinos. A la fecha, 32 países se han pronunciado en favor de negociar un tratado internacional contra los robots asesinos. “Las máquinas carecen de moralidad, por esto, no deben tener el poder de decisión sobre la vida o muerte de los humanos”, dijo Christof Heyns, anterior representante especial de la ONU sobre ejecuciones extrajudiciales. Y el profesor Noel Sharkey, presidente del comité internacional para el control de armas robóticas, piensa que es posible detener este peligro “solo si actuamos ahora, antes de que haya demasiada inversión”.