Tecnología

No caiga en la trampa: así podrían clonar su voz con inteligencia artificial para luego estafarlo

Estafadores están usando varías tácticas para robar la voz de sus víctimas.

26 de junio de 2023
Estafadores tienen varias estrategias para engañar a las personas.
Estafadores tienen varias estrategias para engañar a las personas. | Foto: Getty Images

Continuamente los cibercriminales están implementando diferentes modalidades de estafa para así poder robar datos privados o el dinero de sus víctimas, generalmente los delincuentes construyen engaños que se basan en la suplantación de personas o marcas reconocidas para así lograr que las personas caigan en la trampa.

Sin embargo, la llegada de nuevas herramientas que están impulsadas por tecnologías de inteligencia artificial (IA) han permitido la aparición de técnicas de estafa más sofisticadas. Esto se debe a que la IA hace posible generar fotos, videos o audios falsos que son altamente realistas y que fácilmente pueden ser presentados como un contenido real.

Actualmente, la Policía Nacional ya ha lanzado una advertencia sobre el uso de las notas de voz a través de WhatsApp y otras redes sociales como un recurso empleado por criminales para ejecutar sus estafas.

Esto se debe a que ya hay criminales que pueden aprovechar fotos, videos y audios para fabricar con una inteligencia artificial notas de voz falsas, que son usadas para robar a un usuario de redes sociales. Esto debido a que los ciberdelincuentes aprovechan las plataformas digitales para perfilar a su víctima y con la información que logran recolectar se ejecuta el engaño.

Una inteligencia artificial ya puede imitar la voz de las personas.
Una inteligencia artificial ya puede imitar la voz de las personas. | Foto: Getty Images/iStockphoto

Expertos en ciberseguridad señalan que gracias a la IA ahora es mucho más sencillo crear audios que imiten perfectamente la voz de una persona, además, advirtieron que actualmente hay estafadores que están dedicando varias horas para generar grabaciones cada vez más creíbles.

A raíz de esta situación, las autoridades han indicado que en esta época es muy importante tener mucho cuidado con las notas de voz que se envían a través de WhatsApp o redes sociales. Esto se debe a que los delincuentes necesitan recaudar la mayor cantidad de audios posible de una persona para tener la materia prima que requiere la IA para generar notas de voz falsas.

Por otra parte, los ciberdelincuentes están intentando clonar la voz de sus víctimas mediante la grabación de llamadas telefónicas que les realizan, por ello también muy fundamental tener precaución con la información que se suministra mediante una comunicación vía telefónica.

Una inteligencia artificial puede imitar la voz de otra persona.
Una inteligencia artificial puede imitar la voz de otra persona. | Foto: Getty Images

Así las cosas, la principal recomendación para evitar caer ‘en las garras’ de los estafadores es adoptar medidas para impedir que terceros puedan acceder a datos personales, fotos, videos y audios que están presentes en redes sociales u otras plataformas, para así evitar que los criminales cuenten con insumos que pueden ser empleados en una eventual estafa.

Así funciona la estafa de las videollamadas eróticas

Recientemente, Eset, empresa especializada en ciberseguridad, detectó una nueva modalidad de engaño que se basa en la creación y divulgación de imágenes o videos de contenido erótico que son empleados para extorsionar a las personas que los reciben.

De acuerdo con el reporte de la compañía, en las últimas semanas se ha registrado un incremento en las denuncias de personas que afirman haber sido víctimas de criminales que han creado de contenido sexual falso usando sus rostros.

Criminales están usando la IA para ejecutar estafas de sextorsión mediante videollamadas eróticas.
Criminales están usando la IA para ejecutar estafas de sextorsión mediante videollamadas eróticas. | Foto: Composición de SEMANA con imágenes de Getty Images

¿Cómo se ejecuta la estafa de sextorsión con IA?

Inicialmente, los ciberdelincuentes emplean una herramienta con inteligencia artificial que incorpora el rostro de la víctima en una serie de fotografías o videos eróticos falsos que son generados por dicho sistema con IA.

Posteriormente, los delincuentes divulgan ese material en redes sociales o sitios de contenido para adultos, para comenzar a intimidar a sus víctimas. Luego se inicia un proceso de extorsión con la amenaza de que aparecerán más videos en redes sociales, en algunos casos las personas afectadas reciben un correo electrónico en donde se indica la suma de dinero a pagar y la modalidad para realizar dicho pago.

De manera que las personas se sienten presionadas a pagar una suma de dinero o criptomonedas para así intentar evitar que su imagen sea dañada con la divulgación pública de los videos producidos con la inteligencia artificial.

De hecho, autoridades han advertido que se han registrado casos de menores de edad que han sido víctimas de los chantajes ejecutados por los delincuentes.

Vale la pena indicar que las autoridades que están investigando estas estafas han dicho que muchas de las víctimas no llegan a tener conocimiento sobre los videos eróticos falsos que se suplantan, hasta que el criminal se pone en contacto con ellas para extorsionarlas o cuando una persona cercana les advierte que ha encontrado de forma casual dichos contenidos.

Pese a que las estafas de sextorsión representan una modalidad que se ha empleado desde hace varios años, los delincuentes han procurado mejorar continuamente este tipo de timo.

Esto teniendo en cuenta que anteriormente los criminales solían engañar a sus víctimas enviando un correo electrónico en donde afirmaban haber hackeado el dispositivo del usuario para así tomar el control de la cámara del equipo y así captar videos íntimos de la víctima.

Luego se le advierte al usuario que debe pagar una elevada suma de dinero para así impedir que dichos videos sean divulgados en redes sociales y otras plataformas digitales. Quienes caen en la trampa terminan pagando para impedir la publicación de contenidos que no existen.