Tecnología
Alerta por el peligro que puede generar ChatGPT: sería imposible de detectar
La inteligencia artificial, con el paso del tiempo, sigue sumando más adeptos, debido a todas las soluciones que se pueden conseguir.
Desde su llegada, ChatGPT se ha convertido en la aplicación de inteligencia artificial más popular del planeta, ya que permite resolver la gran mayoría de dudas de cualquier usuario.
Este chatbot también permite asesorar en diferentes temas de poco conocimiento y entregar guías para realizar algunas tareas que se tengan en su momento. Asimismo, permite la traducción de textos enteros en gran calidad.
No obstante, como se ha mencionado en más de una ocasión, esta inteligencia artificial puede llegar a caer en malas manos. En ese orden de ideas, el portal Andro4All indica que se ha descubierto que ChatGPT puede generar un malware mutante que resulta muy difícil de detectar.
La razón de por qué se hace complicado su búsqueda, se debe al protocolo conocido como “Endpoint detection and response” (EDR, por sus siglas en inglés). Esta técnica ha demostrado ser incapaz de encontrar cualquier peligro que pueda crear el chatbot, debido a que su código puede mutar.
Lo más leído
Como es bien sabido, la mayoría de modelos de lenguaje han sido diseñados con filtros para no ser malvados; no obstante, en algunos casos se pueden sobrepasar estos límites para que los ciberdelincuentes generen virus que afecten a los demás usuarios.
Por ejemplo, el mencionado portal asegura que ChatGPT es muy vulnerable a los métodos que utilizan los hackers para la creación de códigos para generar los malwares. En ese sentido, esto puede representar un riesgo para la seguridad de todo internet, debido a que puede haber una gran vulneración de los datos.
No obstante, se espera que Open AI, compañía encargada del desarrollo de ChatGPT, presente una solución al problema, ya que varios expertos aseguran que se podría volver una práctica en otros chatbots que cuentan con inteligencia artificial.
Cabe mencionar que Sam Altman, CEO de OpenAI, días atrás ha lanzado una nueva advertencia al mundo sobre el ChatGPT. El alto ejecutivo reiteró el riesgo que supone para la humanidad la inteligencia artificial y se atrevió a sugerir una figura similar como la Agencia Internacional de Energía Atómica de la ONU, para controlar y vigilar esta nueva tecnología que mantiene en vilo al planeta.
“El desafío que tiene el mundo es cómo vamos a manejar esos riesgos y asegurarnos de que aún podamos disfrutar de esos tremendos beneficios. (…) Nadie quiere destruir el mundo”, indicó el ejecutivo.
Altman se refirió a este organismo de control nuclear creado por la Organización de las Naciones Unidas y lo puso como un ejemplo de lo que hicieron los diferentes gobiernos del mundo para controlar un peligro inminente como la energía nuclear luego de que Estados Unidos atacara a Japón con dos bombas nucleares al final de la Segunda Guerra Mundial.
“Asegurémonos de unirnos como un globo terráqueo, y espero que este lugar pueda desempeñar un papel real en esto. (…) Hablamos del Oiea como un modelo en el que el mundo ha dicho ‘OK, tecnología es muy peligrosa, pongamos todos algunas barandillas’. Y creo que podemos hacer ambas cosas”, recalcó Altman, dejando sobre la mesa, una vez más, su preocupación por lo que pueda llegar a pasar en el mundo si la inteligencia artificial se sale de control.
“Creo que, en este caso, es un mensaje matizado porque dice que no es tan peligroso hoy, pero puede volverse peligroso rápidamente. Pero podemos enhebrar esa aguja”, agregó Altman.
Expertos como Geoffrey Hinton, quien es considerado como uno de los ‘padres de la inteligencia artificial’, han decidido alzar su voz para manifestar los peligros que representan el uso irresponsable de las inteligencias artificiales en un corto y mediano plazo.
En una entrevista con The New York Times, Hinton reconoció estar arrepentido por algunas de las cosas que hizo en su trabajo sobre inteligencias artificiales. Además, manifestó estar preocupado por la competencia que hay entre megacorporaciones tecnológicas como Google, Microsoft o Facebook, por desarrollar la IA más potente posible.
El especialista considera que esta carrera tiene que ser regulada por autoridades internacionales para que así se fijen unos límites al desarrollo y evolución de nuevas tecnologías con IA.