Tecnología
Ciberdelincuentes utilizan versiones alteradas de ChatGPT para robar cuentas bancarias con sofisticadas estafas
WormGPT es una versión maliciosa del famoso modelo de lenguaje de inteligencia artificial.
Es evidente cómo, en los últimos años, la inteligencia artificial (IA) ha transformado diversos ámbitos de la vida cotidiana. En muchos casos, estas tecnologías han facilitado las tareas diarias, ya que su principal objetivo es la automatización de la interacción. Una de las herramientas más utilizadas en este contexto son los chatbots, que tienen la capacidad de resolver preguntas frecuentes, solucionar problemas comunes y ayudar a los usuarios a abordar diversas cuestiones sin necesidad de intervención humana.
Muchos de estos chatbots están disponibles de forma gratuita, lo que los hace accesibles a los profesionales que los requieran en su actividad diaria. Uno de los más populares en la actualidad es ChatGPT, desarrollado por OpenAI. Desde su lanzamiento en 2022, ha tenido un impacto significativo en la vida de las personas. No obstante, este éxito ha impulsado a otras empresas a desarrollar sus propias aplicaciones de inteligencia artificial para ofrecer soluciones rápidas y efectivas.
A pesar de los beneficios evidentes que la inteligencia artificial ofrece, también ha traído consigo retos relacionados con la seguridad digital. Los ciberdelincuentes han comenzado a explotar estas tecnologías emergentes para engañar y estafar a las personas, mediante versiones modificadas de los chatbots de IA. Un ejemplo reciente es WormGPT, un nombre que ha ganado relevancia y sobre el que muchos expertos han expresado su preocupación debido a los riesgos que implica.
El peligro de los chatbots maliciosos
El nombre WormGPT se ha comenzado a utilizar para referirse a una versión maliciosa de modelos de lenguaje de inteligencia artificial, como GPT (Generative Pre-trained Transformer), que ha sido modificada o creada con fines dañinos, en lugar de con propósitos constructivos. Según Kaspersky, los ciberdelincuentes aprovechan el auge de la IA para impulsar sus actividades ilícitas. En la darknet, se ofrecen diversas herramientas para llevar a cabo ciberataques, como el Business Email Compromise (BEC), malware, y ataques de phishing. En este contexto, el aplicativo destaca como una versión de ChatGPT que facilita a los delincuentes la ejecución de ataques cibernéticos.
Lo más leído
A pesar de que pueda parecer menos peligroso de lo que en realidad es, WormGPT representa una amenaza significativa. Este tipo de malware se disfraza como una copia de grandes chatbots de IA como ChatGPT, pero está diseñado para atacar de diversas maneras. Entre los métodos más comunes se encuentran la creación de mensajes engañosos, spam, contenido fraudulento, ataques de phishing, y la propagación de virus o troyanos.
Además, al aprovechar la capacidad de generar texto en lenguaje natural, WormGPT facilita la automatización de ataques informáticos, como la suplantación de identidad, la generación de código de malware e incluso la creación de campañas de desinformación. Este tipo de ataque puede ser más difícil de detectar debido a su sofisticación.
La mayor preocupación con estas versiones maliciosas de IA es que simplifican el trabajo de los ciberdelincuentes, permitiéndoles crear ataques más avanzados y complejos. Gracias a su naturaleza automatizada, estas herramientas pueden generar contenido a gran escala, lo que facilita la expansión de campañas maliciosas sin la intervención humana directa.
Por último, cabe señalar que este tipo de chatbots no están controlados por organizaciones responsables. En su lugar, suelen ser creados y compartidos en foros clandestinos o en la dark web, donde se utilizan con fines destructivos y delictivos.