Tecnología
Crece el temor hacia la inteligencia artificial “moriremos todos, incluidos los niños que no escogieron esto”
Un experto asegura que debe haber una pausa indefinida para tratar el desarrollo de la inteligencia artificial.
La inteligencia artificial y su avance desmedido tiene con los pelos de punta a los grandes líderes tecnológicos del planeta, tanto así que muchos se han aventurado a lanzar fuertes profecías sobre cómo la humanidad podría sucumbir ante el poderío de esta herramienta que podría salirse de control.
Hace poco se conoció que estos magnates e inversores que promovieron el desarrollo de la inteligencia artificial han firmado una carta para lograr detener, por seis meses, el trabajo en este sentido, pues buscan regulaciones, de la mano con los gobiernos del mundo, para poner límites que impidan que el crimen saque provecho de esta herramienta.
Pese a esto, hay alguien bastante pesimista que, incluso, se negó a firmar ese documento. Se trata de Eliezer Yudkowsky, experto en IA y a quien conocen en el medio como ‘activista del racionalismo’.
Este estadounidense afirmó que aunque respeta a quienes estamparon su nombre en esta carta, no comparte lo escrito allí, pues considera que lo consignado allí no es corresponde a la realidad, ya que cree que se está subestimando el poder de la inteligencia artificial.
“Esta moratoria de seis meses sería mejor que ninguna moratoria. Respeto a todos los que han dado un paso al frente [pero] yo me abstuve de firmar porque creo que la carta subestima la gravedad de la situación y pide demasiado poco para resolverla”, explicó Yudkowsky.
Para el defensor de la inteligencia artificial amigable, el problema no es el uso que las personas puedan darles a las diferentes herramientas que han nacido como ChatGPT, la más promocionada hasta el momento, sino a la evolución que esta tenga en relación con los humanos.
“Muchos expertos en estos temas, entre los que me incluyo, creen que el resultado más probable de construir una IA sobrehumanamente inteligente, en circunstancias remotamente parecidas a las actuales, es que literalmente todos los habitantes de la Tierra morirán. No como en el sentido de ‘tal vez exista alguna remota posibilidad’ [sino en el de] obviamente será lo que pase”, explicó el hombre de 43 años, quien además utilizó una comparación entre una competencia entre el Autralophitecus y el Homo Sapiens.
Yudkowsky cree que la inteligencia artificial percibe a los humanos como cosas hechas de átomos y que el desafío es qué tan sensible puede ser esta ante la humanidad, algo, que asegura, no va a pasar y que podría tener consecuencias desastrosas.
“Dicho esto, […] no tenemos ni idea de cómo determinar si los sistemas de IA son autoconscientes —ya que no tenemos ni idea de cómo descodificar nada de lo que ocurre en sus gigantescas matrices inescrutables— y, por lo tanto, puede que en algún momento creemos inadvertidamente mentes digitales”, recoge el portal dedicado a temas tecnológicos Genbeta.com.
Ante esto, la solución del estadounidense es sencilla; él propone que la moratoria de seis meses, propuesta por los líderes del sector, sea indefinida y que no discrimine entre gobiernos o ejércitos. Así mismo, hace un llamado para que se apaguen los clústeres y se rastreen todas las operaciones que se vienen realizando.
“Apagadlo todo. No estamos preparados ni en camino de estarlo en un futuro previsible. Si seguimos adelante con esto, todo el mundo morirá, incluidos los niños que no eligieron esto. Apagadlo todo”, sentenció Yudkowsky.
Cabe señalar que la petición de las personalidades del entorno tecnológico fue publicada en el sitio futureoflife.org. Allí piden una moratoria hasta que se establezcan sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, técnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la “dramática perturbación económica y política (especialmente para la democracia) que causará la IA”.
La inteligencia artificial no lo puede hacer todo. Estas son las cinco cosas que no realiza el prototipo ChatGPT
Cada día se conocen más adelantos y prototipos relacionados con la inteligencia artificial. Sin embargo, algunos de estos no están completamente diseñados o no pueden ejecutar todas las cosas que la gente piensa.
Uno de estos es el ChatGPT, un prototipo que fue desarrollado en el 2022 por OpenAl que se especializa en diálogo. Con relación al tema el diario británico Daily Mail, afirma que existen cinco cosas que el chatbot no puede hacer.
A pesar de los avances que ha tenido este gran modelo de lenguaje que fue lanzado el 30 de noviembre de 2022 y ha llamado poderosamente la atención porque cuenta con técnicas de aprendizaje, son varias las limitaciones que aún tiene. Un análisis de MailOnline analiza que entre las cinco funciones que ChatGPT no puede realizar, están:
- Jugar el popular juego en línea Wordle.
- Recordar su propio nombre.
- Dar consejos sobre medicamentos recetados.
- Escribir artículos de noticias precisos.
- Proporcionar información después de 2021.
Este bot, es decir, programa informático que efectúa automáticamente tareas reiterativas mediante Internet a través de una cadena de comandos, se basa en el modelo GPT-4 de OpenAl, una versión mejorada de GPT-3. Por esto llama la atención que el ChatGPT responda “no sabe nada sobre un ChatGPT”, cuando se le pregunta sobre quién es o su nombre. Según el análisis es probable que esto suceda porque sus creadores no le tenían un nombre, cuando lo programaron.