La escena es difícil de olvidar. En un mundo distópico y devastado, un ejército de robots combaten en tierra y aire a los hombres, que resisten lo mejor que pueden. Las máquinas rigen el planeta en su propia ley, y buscan exterminar la raza que les dio vida. El apocalipsis de las máquinas que ilustra Terminator 2, de James Cameron, impactó al público en 1991, pero nunca pasó de ser una caricatura de los peligros de la inteligencia artificial (IA), que a su manera también presentaron cintas como 2001: odisea del espacio y Ex Machina. Pero hoy la terrible imagen ha revivido con fuerza por cuenta de los debates sobre el tema que protagonizan los cerebros más prodigiosos de la actualidad.Elon Musk viene poniendo el debate en la mesa desde 2014. El sudafricano le ha apostado a un futuro de autos eléctricos (con su compañía Tesla), viajes espaciales con la meta puesta en Marte (en su compañía SpaceX) y masificar la energía solar (como presidente de SolarCity). Pero preocupa el efecto de una tecnología presente en casi todos sus proyectos: la IA. Por eso abrió una compañía sin ánimo de lucro, OpenAI, cuya meta es descubrir el camino hacia una aplicación fiable de esta tecnología, y el start-up Neuralink que, literalmente, apunta a desarrollar un lazo neuronal que permita a los humanos sacar provecho y control de esa inteligencia artificial segura.Puede leer: Los 14 consejos de Bill Gates a los recién egresadosMusk está metido de lleno, pues ha asegurado que “el riesgo es demasiado grande para no hacerlo”. Tiene miedo de los alcances de la IA y no duda en generar terror cada vez que alguien menciona el tema. Aboga para que los países adopten una regulación que la controle estrictamente y, sobre todo, prohíba el peligroso matrimonio entre ella y la industria armamentística. Y no está solo, otros 115 expertos en IA y en robótica firmaron con él una carta dirigida a la ONU la semana pasada. Esta dice: “Las armas letales autónomas amenazan con convertirse en la tercera revolución en la guerra. Una vez se desarrollen, llevarán al conflicto armado a una escala mayor que nunca y a velocidades superiores a la comprensión humana”.No para ahí. Establece el escenario en el que déspotas y terroristas usen las armas inteligentes contra la sociedad civil, y en el que hackers reprogramen una máquina capaz de hacer mucho daño muy rápidamente. La carta concluye advirtiendo que una vez se abra la caja de Pandora será muy difícil volverla a cerrar. Los firmantes imploran “a los altos contratantes encontrar una manera de protegernos de estos peligros”. El texto hace pensar que ya es demasiado tarde. Ni este centenar de científicos ni Musk toman el tema a la ligera. Y si su tono suena en extremo paranoico, obedece a una realidad sustentada.Por eso, cuando alguien como Mark Zuckerberg se pronuncia contra los temores de Musk, y los minimiza, produce revuelo. No se trata de cualquiera, Zuckerberg creó una red social que tiene injerencia en la vida de casi 2.000 millones de seres humanos, un hecho que inevitablemente le otorga poder e influencia a nivel estatal y, por qué no, continental. Ha confesado su interés en desarrollar la realidad virtual como paso futuro de su compañía y tiene un ala dedicada exclusivamente a desarrollar inteligencia artificial.Le sugerimos: ¿Podrían los robots volverse más humanos?Zuckerberg lanzó la primera piedra. En una sesión en vivo, que mantuvo con sus seguidores en su propia red social, le preguntaron sobre las alertas rojas de Musk sobre la IA. Respondió con brutal franqueza: “Tengo opiniones muy claras. No entiendo a los negacionistas o quienes presentan escenarios apocalípticos. Es muy negativo y muy irresponsable”. El tono de confrontación aceleró los reportes de prensa. Y una vez estas noticias se replicaron por medio de Twitter, Musk no demoró en responder con un escueto pero contundente: “Ya le he hablado sobre esto a Mark, su comprensión del tema es limitada”.Los cortantes sablazos entre dos de los hombres que influyen más en el futuro del planeta no se extendieron mucho, pues los hechos hablaron por sí solos. En el seno de FAIR (Facebook Artificial Intelligence), el laboratorio de IA de Facebook, los desarrolladores se toparon con un descubrimiento que los preocupó. Los chatbots que venían utilizando en su programa se desviaron de su script original y se estaban comunicando en un lenguaje desarrollado sin ayuda humana. A la vez, como mencionaron varios artículos de prensa, demostró ser un hecho tan emocionante como aterrador.Del lado de Zuckerberg, y muy a pesar de estos desarrollos en FAIR (que parecen confirmar el potencial exponencial de aprendizaje de las máquinas), el británico Kenneth Payne, profesor del tema en King’s College, de Londres, considera que sin importar qué haga Musk, la inteligencia artificial llegará a los conflictos. No lo considera algo negativo, y presenta las virtudes de unas máquinas más precisas que un ser humano en el campo de batalla. Además, concluye que en los estados actuales de IA, pensar en un escenario apocalíptico es perder el tiempo.Le recomendamos: La inteligencia artificial irrumpe de a poco en la vida cotidianaPero Musk viene advirtiendo sobre el tema desde 2014 y pesos pesados lo secundan. En 2015 hizo un fuerte clamor en Buenos Aires, en la International Joint Conference on Artificial Intelligence, cuando presentó una carta firmada por más de mil investigadores, entre estos Stephen Hawking, DemisHassabis, ejecutivo líder de DeepMind de Google, y el cofundador de Apple Steve Wozniak. Hasta el momento, este último ha cambiado de postura sobre los peligros de los robots.El debate admite un enfoque más amplio pues los alcances de la IA van más allá de la guerra e impactan múltiples entornos. Mientras todo se aclara, el resto del mundo, seguirá oscilando entre la emoción y la paranoia y rezando para que los cuatro jinetes del apocalipsis no lleguen pronto, y no sean de metal.