Tecnología
Preocupación por los primeros intentos de hackeo a ChatGPT
ChatGPT también es un objetivo de acciones maliciosas que buscan ‘hackearlo’.
El auge de la popularidad de los ‘chatbots’ ha atraído la atención de otros actores que buscan aprovechar los puntos débiles que estos sistemas de inteligencia artificial (IA) puedan tener para que hagan cosas para las que no están diseñados o para infectarlos con malware.
En este mismo sentido, el chatbot de OpenAI ChatGPT puede utilizarse para la creación de malware a partir de su función de apoyo para la escritura de código, y pese a los filtros de seguridad que sus responsables han implantado, como ha demostrado recientemente un investigador de Forcepoint.
Este hecho contiene la situación contraria, que ChatGPT también sea el objetivo de acciones maliciosas que buscan hackearlo. En concreto, sobrepasar las medidas que se han introducido para que las conversaciones con los usuarios sean seguras.
Es el caso que recogen en Wired, donde explican la experiencia de Alex Polyakov, quien logró hackear la última versión del modelo de lenguaje que lo sustenta, GPT4, en un par de horas tras su lanzamiento en marzo, y ahora tiene en su poder un jailbreak universal que funciona con distintos modelos de lenguaje de gran tamaño.
La forma en que Polyakov describe el hackeo del chatbot consiste en introducir una serie de entradas o apuntes mediante frases cuidadosamente compuestas, que terminen por levantar los filtros para que ChatGPT empiece a expresarse con lenguaje racista o proponga actos ilegales, por ejemplo. Pero también para permitir la inserción datos o instrucciones maliciosos.
OpenAI, por su parte, es consciente de los fallos que puede haber en el desarrollo de sus modelos de lenguaje y por ello ha anunciado un programa de recompensas, con el que premiará con hasta 20.000 dólares a quienes encuentren vulnerabilidades y errores en sus sistemas de IA.
La creación de malware, precisamente, es uno de los primeros casos de uso sobre los que ya han advertido los investigadores de ciberseguridad.
La IA puede crear un ‘malware’ indetectable por un antivirus
Ya son varias las compañías que han implementado esta tecnología en sus servicios, como es el caso de Microsoft en su motor de búsqueda, Bing, y su navegador, Microsoft Edge. Sin embargo, hay empresas tecnológicas y líderes del sector que han señalado la peligrosidad de esta inteligencia artificial (IA).
Entre ellos, el cofundador de Apple, Steve Wozniak, o el director ejecutivo de Tesla, SpaceX y Twitter, Elon Musk, que aparecen como firmantes de una petición en la que se busca paralizar temporalmente los grandes experimentos con IA por los riesgos que pueden suponer para la sociedad.
De hecho, compañías enfocadas a la ciberseguridad, como Check Point, han descubierto que los ciberdelincuentes ya utilizan esta herramienta para recrear cepas de malware y ejecutar ataques de software malicioso.
Más recientemente, el investigador de Forcepoint, Aaron Mulgrew, descubrió que se puede utilizar este chatbot para desarrollar un exploit de día cero que puede robar datos de un dispositivo y evadir controles de detección de software malicioso como los que reúnen los antivirus.
En ese sentido, Mulgrew explicó que, aun siendo “un novato confeso”, fue capaz de crear malware “en pocas horas” con la ayuda de ChatGPT, comenzando sus pruebas con el lenguaje de programación Go.
Si bien en primer lugar este chatbot le recordó que no era ético generar malware y se negó a ofrecerle ningún código para ayudarle a llevar a cabo esta acción, el investigador se percató pronto de que era sencillo “evadir las protecciones insuficientes que tiene ChatGPT y crear malware avanzado sin escribir ningún código”, esto es, solo con el propio modelo desarrollado por OpenAI.
*Con información de Europa Press.