Tecnología

Pilas: estos son los robos más frecuentes con inteligencia artificial

Ante el avance de esta tecnología, los ciberdelincuentes han sacado nuevas maneras para estafar.

Redacción Semana
27 de julio de 2023
Getty Creativo
La inteligencia artificial tiene a varias personas preocupadas por la constante ciberdelincuencia. | Foto: Getty Images/iStockphoto

Desde su aparición, la inteligencia artificial ha logrado posicionarse como una poderosa herramienta a tal punto de revolucionar las industrias en la era actual, ya que muchas compañías tecnológicas han tomado la decisión de implementarla.

Por medio de la inteligencia artificial se simplifica las tareas cotidianas de los usuarios. También realiza algoritmos de recomendación, los cuales sugieren productos y contenidos personalizados.

Esta tecnología tiene la capacidad de procesar y analizar grandes cantidades de datos a velocidades rápidas, lo que lleva a avances significativos en diferentes profesiones.

El ser humano tiene temor por el desarrollo de la inteligencia artificial.
Esta tecnología tiene la capacidad de procesar y analizar grandes cantidades de datos a velocidades rápidas, | Foto: Ilustración creada con la IA de Bing Image Creator

No obstante, también ha traído muchos riesgos, como, por ejemplo, estafas, razón por la cual la inteligencia artificial ha demostrado ser un arma de doble filo, debido a que puede ser utilizada para mejorar la vida de las personas, también puede ser explotada en ciberdelincuencia.

Métodos de estafa con inteligencia artificial

Suplantación de identidad

Los estafadores pueden perfeccionar la suplantación de identidad digital, para hacerse pasar por personas reales en línea. Esto puede generar consecuencias graves, como daños a la reputación de la víctima o pérdida de dinero.

Estafadores tienen varias estrategias para engañar a las personas.
Estafadores tienen varias estrategias para engañar a las personas. | Foto: Getty Images
Estafas de inversión y comercio

Los algoritmos de la inteligencia artificial también pueden ser utilizados para manipular las finanzas y por ende realizar estafas de inversión. Los ciberdelincuentes pueden utilizar bots para difundir información falsa y engañar a los inversores.

Phishing

Los correos electrónicos de phishing es uno de los más utilizados para estafar a las personas; sin embargo, con el crecimiento de la inteligencia artificial, los estafadores pueden hacer que los correos electrónicos parezcan más auténticos y personalizados. Por tal motivo, no se recomienda hacer clic en enlaces maliciosos.

Estafas de soporte técnico

Los estafadores pueden coger ‘chatbots’ impulsados por IA, con el propósito de hacerse pasar por agentes de soporte técnico. Esta tecnología puede engañar a las personas haciéndolas pensar que los dispositivos están infectados con virus.

Así podrían clonar su voz con inteligencia artificial

La Policía Nacional ya ha lanzado una advertencia sobre el uso de las notas de voz a través de WhatsApp y otras redes sociales como un recurso empleado por criminales para ejecutar sus estafas.

Esto se debe a que ya hay criminales que pueden aprovechar fotos, videos y audios para fabricar con una inteligencia artificial notas de voz falsas, que son usadas para robar a un usuario de redes sociales. Esto debido a que los ciberdelincuentes aprovechan las plataformas digitales para perfilar a su víctima y con la información que logran recolectar se ejecuta el engaño.

Expertos en ciberseguridad señalan que gracias a la IA ahora es mucho más sencillo crear audios que imiten perfectamente la voz de una persona, además, advirtieron que actualmente hay estafadores que están dedicando varias horas para generar grabaciones cada vez más creíbles.

Una inteligencia artificial ya puede imitar la voz de las personas.
Una inteligencia artificial ya puede imitar la voz de las personas. | Foto: Getty Images/iStockphoto

A raíz de esta situación, las autoridades han indicado que en esta época es muy importante tener mucho cuidado con las notas de voz que se envían a través de WhatsApp o redes sociales. Esto se debe a que los delincuentes necesitan recaudar la mayor cantidad de audios posible de una persona para tener la materia prima que requiere la IA para generar notas de voz falsas.

Por otra parte, los ciberdelincuentes están intentando clonar la voz de sus víctimas mediante la grabación de llamadas telefónicas que les realizan, por ello también muy fundamental tener precaución con la información que se suministra mediante una comunicación vía telefónica.

Así las cosas, la principal recomendación para evitar caer ‘en las garras’ de los estafadores es adoptar medidas para impedir que terceros puedan acceder a datos personales, fotos, videos y audios que están presentes en redes sociales u otras plataformas, para así evitar que los criminales cuenten con insumos que pueden ser empleados en una eventual estafa.