Tecnología

Este es el lado oscuro de ChatGPT que muchos ‘hackers’ estarían utilizando a su favor

La inteligencia artificial sigue generando preocupación en el mundo tecnológico.

27 de marzo de 2023
Getty Creativo
Muchos hackers han aprovechado la inteligencia artificial. | Foto: Getty Images/iStockphoto

Se sigue hablando mucho del uso del ChatGPT en la tecnología que actualmente funciona en diferentes partes del mundo. Entre los temas que más se comentan están los usos que se le puede dar a esta inteligencia artificial.

Es importante mencionar que ChatGPT es una herramienta de IA conversacional capaz de chatear con los usuarios, responder a sus preguntas y en formato de texto desarrollado. Esta herramienta ha sorprendido a los usuarios, debido a la naturaleza de sus respuestas y a su capacidad para generar y enlazar ideas.

Estas funciones han hecho que se despierten diferentes inquietudes y preocupaciones, no solamente en el mundo académico y científico, sino también entre las autoridades, ya que la IA puede desarrollar códigos en varios lenguajes de programación.

¿Rebelión de las máquinas? Mira Murati, creadora de ChatGPT, cree que la IA debe ser regulada
ChatGPT es desarrollado por Open AI. | Foto: NurPhoto via Getty Images

De acuerdo con la Europol, los ciberdelincuentes estarían explotando este tipo de sistemas de inteligencia artificial, afirmando que esta tecnología “ofrece un panorama sombrío” y un nuevo desafío para la aplicación de la ley.

Entre los delitos que estarían realizando, se encuentran el terrorismo, la explotación infantil y robo de cuentas bancarias. Los expertos de Europol afirmaron que han identificado diferentes áreas de preocupación; sin embargo, destacan tres ámbitos relevantes.

La primera de ellas es la de facilitar las tareas de fraude, suplantación de identidad e ingeniería social, ya que la capacidad de inteligencia artificial para escribir textos.

Según la institución, el fraude virtual se pueden crear de “manera más rápida”, motivo por el cual permiten “responder a mensajes en contexto y adoptar un estilo de escritura específico”.

Para identificar cualquier tipo de ataque cibernético, será necesario fijarse en los errores gramaticales y ortográficos. Asimismo, fijarse en las páginas web sean las oficiales; es decir, que no se den acceder a los enlaces enviados.

Desarticulan banda dedicada a la ciberdelincuencia en Colombia
La inteligencia artificial ha aumentado considerablemente la ciberdelincuencia. | Foto: Getty Images

¿Hay que tenerle miedo a las inteligencias artificiales?

Sorpresivamente, Sam Altman, CEO de OpenAI (empresa responsable de la creación de ChatGPT), sostuvo una conversación con ABC News en la que reveló que en este momento tiene varias preocupaciones sobre las recientes innovaciones en torno a la inteligencia artificial.

Altman manifestó que tiene una gran preocupación sobre el uso de una IA como herramienta en la generación de campañas desinformación a gran escala, de igual manera, reconoció que actualmente el chatbot de OpenAI tiene la capacidad de escribir código informático y por ello existe el riesgo de que el sistema sea usado para realizar ciberataques con mayor eficiencia.

De acuerdo con CEO de OpenAI, la nueva versión de ChatGPT (GPT-4) ya cuenta con la habilidad de entender imágenes y extraer información a partir de ellas, por ello la IA ya puede resolver ciertos acertijos y hasta puede ofrecer una explicación bastante acertada sobre un meme que circula en Internet.

Pese a que dichas funcionalidades solo están al alcance de un número limitado de personas que colaboran en el programa de desarrollos beta para ChatGPT, eventualmente esa inteligencia artificial tendrá la capacidad de generar y brindar información falsa.

Inteligencia artificial.
Inteligencia artificial. | Foto: Getty Images

Altman explicó que la posibilidad de que su chatbot genere informaciones equivocadas se debe a ChatGPT, emplea un proceso de razonamiento deductivo, en vez de solo memorizar grandes cantidades de datos; puesto que el objetivo de sus creadores es que la IA pueda llegar a comprender el mundo de una forma similar a cómo lo hacen los humanos, mediante la capacidad de razonar.

No obstante, Sam Altman también admitió que sí existe un peligro real en cuanto a chatbots como ChatGPT puedan ser utilizados con fines negativos, debido a que OpenAI no es la única empresa que está desarrollando ese tipo de tecnología y muy seguramente en el futuro aparecerán otras compañías que no establecerán los mismos límites para sus inteligencias artificiales.

En ese sentido, Altman reconoció en su entrevista con ABC News que es necesario que la especie humana le tenga miedo a las IA, porque así siempre tendrá una consciencia sobre cuál es la mejor manera de usar y sobre todo limitar esas tecnologías.

Finalmente, el CEO de Open AI indicó que considera muy poco posible que en un futuro se presente un escenario similar a al que se plantea en la cinta ‘Terminator’, en donde una la inteligencia artificial llamado Skynet toma el control del arsenal nuclear de varios países y le declara la guerra a la humanidad bombardeándola con esas armas.