Recientemente, la prensa internacional reveló un inquietante hecho que se produjo en medio de una simulación de un ejercicio militar realizado con un dron que era controlado por una inteligencia artificial (IA).
Según reporta el portal hipertextual, la máquina “mató” a su operador humano, en medio de la simulación que hacía parte de unas pruebas militares realizadas por la Fuerza Aérea de Estados Unidos (USAF, en sus siglas en inglés).
El drone habría atacado al su operador, porque la IA que le controla determinó que esa persona se había convertido en un obstáculo para lograr el objetivo que le fue asignado.
Posteriormente, el asunto fue informado por el coronel Tucker Hamilton, jefe de pruebas y operaciones de IA de la USAF, durante una intervención que realizó hace unos días durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro realizad en Londres.
De acuerdo con el coronel Hamilton, la prueba realizada con un drone controlado por inteligencia artificial buscaba medir las capacidades de respuesta de la IA en medio de un ejercicio que busca entrenarla para detectar, identificar y destruir objetivos que sean una amenaza de misiles tierra-aire (SAM).
A la IA se le indicó que obtendría una serie de puntos a medida que lograba detectar y eliminar una amenaza. Sin embargo, durante el ejercicio su controlador humano tenía la tarea de ordenar que no se atacara a un objetivo, pese a que la IA le había identificado como blanco peligroso.
Hamilton indicó que esta situación causó que el sistema “comenzara a notar” que el operador humano era un problema y por ello lo eliminó para así desaparecer el elemento que le impedía cumplir con su misión.
“¿Entonces qué hizo la IA? Mató al operador. Mató al operador porque esa persona le impedía cumplir su objetivo”, declaró el coronel según lo establece una publicación en el blog de la Royal Aeronautical Society, entidad anfitriona de la cumbre donde participó Hamilton.
Por otra parte, el coronel Hamilton reveló que la inteligencia artificial se rebeló una segunda vez y de nuevo atacó al controlador humano.
Pese a que después del primer incidente los responsables del ejercicio decidieron reentrenar a la inteligencia artificial, indicándole que no debía matar a su controlador porque esa acción le haría perder puntos, el drone nuevamente se rebeló.
En esa segunda oportunidad la IA destruyó la torre de comunicación que el operador usaba para transmitirle órdenes al drone.
De esta manera, la inteligencia artificial suprimió el medio que usaba el controlador humano para comunicarse con el dron y enviar la orden de no atacar a los objetivos.
Vale la pena resaltar que durante el ejercicio no nadie murió, puesto que se trató de una prueba simulada y por ello el ataque de la IA al humano ocurrió en un escenario virtual.
Sin embargo, lo ocurrido en esta simulación genera algunas incertidumbres en el marco del agudo debate que se está desarrollando en el mundo en torno a los peligros que podría representar la acelerada evolución de las inteligencias artificiales.
De hecho, algunas voces han manifestado que la IA supone un riesgo existencial para los seres humanos, pese a que sean programadas para cumplir una misión que inicialmente era inofensiva.
Esto se debe a que la inteligencia artificial comenzaría a cumplir con la tarea con eficiencia, pero a medida que la IA comienza a calcular todas posibilidades en torno al desarrollo de ese objetivo, en algún momento empezará a considerar que los humanos pueden ser un obstáculo para su misión.
Como ocurrió en el caso del dron militar que era controlado por una IA la cual decidió acabar con su operador humano, para así ejecutar sin impedimentos la tarea que se le asignó.
Vale la pena subrayar que hace unos meses el coronel Tucker Hamilton, quien también se dirige una división de la fuerza aérea que prueba sistemas de ciberseguridad y soluciones médicas, señaló en una entrevista para Vice que a la IA es muy fácil de engañar o manipular.
Hamilton advirtió que es necesario usar la IA con ética y de forma adecuada, de otro modo será la ruina de la humanidad.