Los avances tecnológicos no solo han traído beneficios para la humanidad, sino que también han funcionado como puente para que los estafadores puedan cometer sus delitos.

Ante esto, expertos de Sophos alertan sobre algunas aplicaciones similares a ChatGPT que roban dinero y datos:

Chat GBT: Los desarrolladores de la app jugaron con el nombre ChatGPT para mejorar la clasificación de su aplicación en Google Play o App Store.

OpenAI: Si bien, esta ofrece la funcionalidad básica de ChatGPT a los usuarios de forma gratuita en línea, estas aplicaciones cobraban desde US$10 por mes hasta US$70.00 por año.

Versión para iOS de Chat GBT (Ask AI Assistant): Cobra US$6 a la semana, o US$312 al año, después de la prueba gratuita de tres días; les dio a los desarrolladores US$10,000 solo en marzo.

Genie: Es similar a fleeceware anima a los usuarios a suscribirse a una suscripción de US$7 semanales o US$70 anuales, recaudó US$1 millón durante el último mes.

ChatGPT: detectan primeros métodos para usar el chatbot en estafas o ciberataques

Investigadores han descubierto que los ciberdelincuentes han empezado a utilizar la herramienta de inteligencia artificial (IA) ChatGPT, desarrollada por OpenAI, para recrear cepas de ‘malware’ y ejecutar ataques de ‘software’ malicioso.

ChatGPT es un chat de inteligencia artificial desarrollado por OpenAI, entrenado para mantener una conversación en texto. Es un chat que se basa en el modelo de lenguaje GPT 3.5, y en los últimos días ha sorprendido por la gran naturalidad de sus respuestas y por su capacidad para generar y enlazar ideas y recordar las conversaciones previas.

Chat GTP, es un chatbot que cuenta con una inteligencia artificial capaz de resolver diferentes dudas de los usuarios. | Foto: Semana

Para poder emplear este chatbot, solo es necesario disponer de una cuenta en OpenAI, lugar desde donde se puede descargar de forma gratuita. La accesibilidad a esta herramienta es lo que ha puesto en alerta a compañías de ciberseguridad, como Check Point.

A finales del pasado mes de diciembre y ante el creciente interés por ChatGPT, el director técnico de Check Point ‘software’, Eusebio Nieva, alertó de que “cualquier persona con recursos mínimos y cero conocimientos en código puede explotarlo fácilmente”.

Ahora, un grupo de investigadores de esta empresa de ciberseguridad ha encontrado indicios algunos actores maliciosos que estarían utilizando ChatGPT para ejecutar campañas de ‘malware’ siguiendo métodos habitualmente utilizados en este tipo de acciones, que recoge en una publicación en su blog oficial.

Fue el pasado 29 de diciembre cuando apareció un hilo llamado ‘ChatGPT - Beneficios del malware’ en un foro clandestino de piratería, en el que su autor compartió sus experimentos con este chatbot.

“He recreado muchas cepas y técnicas de ‘malware’ basadas en publicaciones de investigación y análisis de estos ataques”, aseguró este actor. A su vez, comentó que había empleado un ‘software’ malicioso basado en Python para buscar archivos, copiarlos en una carpeta, comprimirlos y subirlos a un servidor FTP codificado.

Tras realizar una serie de pruebas, los investigadores comprobaron que el ciberdelincuente estaba en lo cierto y que podía crear un ‘malware’ capaz de recopilar archivos de Microsoft Office, PDF o imágenes del sistema.

En caso de que encuentre algún archivo de interés, lo copia en un directorio temporal, lo comprime y lo comparte a través de la web, además, sin añadir cifrado. Esto quiere decir que, al transferir estos archivos sin dicho sistema de seguridad, estos archivos también podrían acabar en manos de terceros.

Check Point encontró otra evidencia de un mal uso de ChatGPT por parte de este actor de amenazas en la creación de un fragmento de Java. Este descarga un cliente SSH común, PuTTY, y lo ejecuta de forma encubierta, utilizando Powershell.

Desde la compañía puntualizan que este ‘script’ se puede modificar para descargar y ejecutar cualquier programa, incluidas las familias de ‘malware’ más usuales.

Por otra parte, CheckPoint ha interceptado a otro ciberdelincuente, que se da a conocer por el apodo USDoD, que dijo a través del mismo foro de piratería que acababa de crear su primer ‘script’ basado en Python.

Después de que otro usuario comentara en este espacio que el estilo del código se asimilaba al de OpenAI, este actor malicioso sugirió que esta le había servido para rematar dicha secuencia de comandos. Tras hacer las comprobaciones pertinentes, la compañía de ciberseguridad concretó que se trataba de un ‘script’ que se podía utilizar con finalidades de encriptado y cifrado, aunque también con fines maliciosos.