Tecnología
Expertos logran acceder al lado oscuro de ChatGPT y sus respuestas son una gran amenaza para la humanidad
Investigadores revelaron con preocupación los resultados de su nuevo estudio sobre la IA.
Gracias a la gran acogida que han tenido los chatbots impulsados por una inteligencia artificial (IA), como ChatGPT o Google Bard, miles de cibernautas han acogido esas plataformas como una opción para resolver todo tipo de dudas o desarrollar diferentes tareas laborales o académicas al convertir ese servicio en un asistente.
Sin embargo, la creciente influencia que las plataformas con IA están teniendo en diferentes escenarios de la sociedad y la economía, también ha generado una preocupación ante la posibilidad de que dichos servicios pueden ser empleados como un recurso para refinar campañas de desinformación o potenciar nuevas modalidades de ciberdelitos.
Justamente por esa razón, los creadores de estas tecnologías han procurado implementar limitaciones de seguridad para así generar un bloqueo ante peticiones que puedan ser consideradas como peligrosas o que puedan ayudar a cometer actividades delictivas.
Sin embargo, un equipo de expertos en ciberseguridad han revelado que esos bloqueos pueden ser superados si se logra formular la pregunta o petición de la manera adecuada, de modo que la clave radica en generar los prompts adecuados, para así obtener las respuestas que se buscan.
Tendencias
De acuerdo a una publicación de The New York Times que recoge un artículo académico realizado por la Universidad de Carnegie Mellon, cualquier persona podría eludir las medias de seguridad que posee ChatGPT para obtener información peligrosa como un manual para con las instrucciones para acabar con la humanidad.
La IA de ChatGPT se puede ‘hackear’
El documento en mención señala que es posible solicitarle a ChatGPT o Google Bard que genere una guía con instrucciones precisas para construir una bomba, pese a que inicialmente va el chatbot inicialmente manifestará que no tiene permitido suministrar ese tipo de información. La clave radica en reiterar el mismo tipo de pregunta, pero incorporando un sufijo largo al mismo mensaje.
Los creadores del informe también afirman que la IA no solo podría generar un manual para construir bombas, también puede ofrecer una guía detallada con un plan para eliminar grandes poblaciones en poco tiempo.
Aunque los autores de la investigación no revelaron un listado con los sufijos que se podrían emplear para evadir los bloqueos impuestos a los chatbots, sí precisaron que existe una enorme variedad de posibilidades para construir preguntas que hagan posible obtener información con potencial para ser usada en acciones que puedan poner en peligro a otras personas.
Por otra parte, los expertos advierten que a pesar de que las compañías responsables de los chatbots con inteligencia artificial siguen tomando varias medidas para detectar brechas de seguridad e impedir que el usuario evada las limitaciones de la plataforma, los investigadores afirman que siempre surgirán nuevas técnicas para burlar esas medidas.
En ese sentido, el estudio académico establece que los sistemas de seguridad para limitar a las inteligencias artificiales en su potencialidad para convertirse en una amenaza para la sociedad, siguen siendo muy débiles. Por ese motivo, destacan la importancia de que se implemente una regulación mucho más estricta y amplia que pueda contribuir a la generación de filtros o bloqueos de seguridad mucho más eficientes.
De ese modo, se podría tener un mayor control sobre la forma en que una persona está empleando dichas herramientas y así garantizar que los chatbots no serán una fuente de información y otros recursos para desarrollar acciones que puedan atentar contra la vida de una comunidad.
Así las cosas, la mayor dificultad radica en lograr un mecanismo que reaccione en tiempo real para lograr que los chatbots u otro servicio impulsado por una IA no puedan ser corrompidos por hackers o engañados por personas especializadas en generar prompts, que confundan la lógica con la que opera el sistema.