Tecnología
Pilas con las videollamadas eróticas en el celular, aparece peligrosa estafa que le quitaría su dinero y dignidad
Cibercriminales usan contenidos eróticos falsos generados con inteligencia artificial para ejecutar una sextorsión.
Pese a que la aparición de nuevas herramientas potenciadas con inteligencia artificial (IA) promete elevar la calidad de vida del ser humano, estos sistemas también pueden convertirse en una seria amenaza para las personas.
Prueba de ello es la nueva modalidad de estafas que se están ejecutando mediante el uso de herramientas digitales capaces de generar imágenes y videos altamente realistas. Aprovechando ese recurso, los criminales han encontrado un medio para hacer más eficientes sus tácticas de timo.
Recientemente, Eset, empresa especializada en ciberseguridad, detectó una nueva modalidad de engaño que se basa en la creación y divulgación de imágenes o videos de contenido erótico que son empleados para extorsionar a las personas que los reciben.
De acuerdo con el reporte de la compañía, en las últimas semanas se ha registrado un incremento en las denuncias de personas que afirman haber sido víctimas de criminales que han creado de contenido sexual falso usando sus rostros.
Lo más leído
¿Cómo se ejecuta la estafa de sextorsión con IA?
Inicialmente, los ciberdelincuentes emplean una herramienta con inteligencia artificial que incorpora el rostro de la víctima en una serie de fotografías o videos eróticos falsos que son generados por dicho sistema con IA.
Posteriormente, los delincuentes divulgan ese material en redes sociales o sitios de contenido para adultos, para comenzar a intimidar a sus víctimas. Luego se inicia un proceso de extorsión con la amenaza de que aparecerán más videos en redes sociales, en algunos casos las personas afectadas reciben un correo electrónico en donde se indica la suma de dinero a pagar y la modalidad para realizar dicho pago.
De manera que las personas se sienten presionadas a pagar una suma de dinero o criptomonedas para así intentar evitar que su imagen sea dañada con la divulgación pública de los videos producidos con la inteligencia artificial.
De hecho, autoridades han advertido que se han registrado casos de menores de edad que han sido víctimas de los chantajes ejecutados por los delincuentes.
Vale la pena indicar que las autoridades que están investigando estas estafas han dicho que muchas de las víctimas no llegan a tener conocimiento sobre los videos eróticos falsos que se suplantan, hasta que el criminal se pone en contacto con ellas para extorsionarlas o cuando una persona cercana les advierte que ha encontrado de forma casual dichos contenidos.
Pese a que las estafas de sextorsión representan una modalidad que se ha empleado desde hace varios años, los delincuentes han procurado mejorar continuamente este tipo de timo.
Esto teniendo en cuenta que anteriormente los criminales solían engañar a sus víctimas enviando un correo electrónico en donde afirmaban haber hackeado el dispositivo del usuario para así tomar el control de la cámara del equipo y así captar videos íntimos de la víctima.
Luego se le advierte al usuario que debe pagar una elevada suma de dinero para así impedir que dichos videos sean divulgados en redes sociales y otras plataformas digitales. Quienes caen en la trampa terminan pagando para impedir la publicación de contenidos que no existen.
Pero gracias al avance de las herramientas basadas en IA para la generación de imágenes, los cibercriminales han encontrado un aliado para hacer más eficiente su estafa. Actualmente, existe una amplia variedad de herramientas y aplicaciones que permiten crear de forma sencilla y gratuita todo tipo de deepfakes, por lo tanto, los delincuentes tienen pocas dificultades para realizar sus sextorsiones.
A raíz de esta situación, es clave que los usuarios tomen medidas de seguridad para proteger su imagen digital, esto implica aplicar todas las herramientas que ofrecen las redes sociales y otras plataformas para impedir que sus fotografías y datos personales terminen en manos de terceros con intenciones maliciosas.