Tecnología
Revelan cómo funciona la estafa con IA que usa la imagen de Luis Díaz: no caiga en la trampa
Expertos exponen tips clave para no caer en el engaño.
Luis Díaz ha logrado convertirse en un referente de la calidad de los futbolistas colombianos en las competencias más importantes del mundo, las habilidades del colombiano se han ganado el respeto de la prensa inglesa y de la afición del Liverpool.
Sin embargo, el buen nombre que Díaz está forjando en el futbol internacional también se han convertido en un recurso de utilidad para los criminales especializados en ejecutar ciberestafas en redes sociales y otras plataformas digitales.
Recientemente, se ha denunciado que está circulando un video en donde aparentemente el futbolista colombiano, anuncia un “nuevo proyecto” supuestamente pensado para beneficiar a las comunidades menos favorecidas de Colombia.
¿De qué se trata la estafa del video falso de Luis Díaz creado con IA?
Cibercriminales emplearon la tecnología de inteligencia artificial (IA) generativa para usar la imagen y voz de Luis Díaz y así crear un video que logre engañar a usuarios de redes sociales incautos.
Lo más leído
En la grabación fraudulenta, el personaje generado con IA indica que él creció en una familia de bajos recursos y por ello ahora desea ayudar a los colombianos que pasan necesidades.
“Crecí en una familia pobre y quiero ayudar a los colombianos. Daniela y yo creemos que todos deben ser independientes económicamente y sin límites. Creamos este proyecto para cambiar vidas”, indica el video.
Líneas seguidas, el clon digital de Luis Díaz invita a las personas a que se unan a un canal de Telegram y que a través de ese canal se podrá participar en la supuesta iniciativa que promete brindar grandes ingresos económicos en poco tiempo.
“Solo necesitas teléfono e internet para participar. Seguro y rápido. Multiplica tu inversión en pocas horas”, agrega la imitación de Díaz.
Para tratar de darle una mayor credibilidad al engaño, los estafadores incorporan en su video falso la imagen de marcas reconocidas como Noticias Caracol y Bancolombia, esto como una estrategia para que potenciales víctimas crean en la historia.
OJO 👀🚫 se están presentando este tipo de videos con la imagen de Luis Díaz realizado con inteligencia artificial para estafar y pedir colaboración en nombre del Guajiro. Denunciar pic.twitter.com/7UT5at9KCJ
— José Jiménez Rincón (@josejimenezr6) February 6, 2024
Juan Sebastián Estévez, líder de seguridad para IBM Norte de Suramérica, le explicó a SEMANA que el 2024 se proyecta como el año del engaño, en términos de ciberseguridad.
Estévez advierte que debido al uso generalizado de la IA, los ciberdelincuentes están usando esa tecnología como una herramienta para aumentar la efectividad de sus engaños.
“Se verán cada vez más casos de ‘fakes’ de video o audio, que simulan personalidades de la vida pública, líderes globales o hasta tomadores de decisiones claves en el ámbito empresarial local, como gerentes de compañías”, indicó.
A raíz de esta situación, SEMANA consultó con varios expertos en ciberseguridad, quienes explicaron cómo se ejecutan las nuevas estafas con inteligencia artificial y qué medidas se deben adoptar para no caer en el engaño.
¿Cómo se puede usar una IA para suplantar a una celebridad como Luis Díaz?
David López, vicepresidente de ventas para Latinoamérica y EE. UU. de Appgate, le indicó a SEMANA que las nuevas de la IA han permitido refinar las estafas tipo ‘deepfake’, las cuales tienen el objetivo de imitar o suplantar a las personas, y en especial a personas reconocidas como políticos, celebridades, deportistas, entre otros.
En este momento los delincuentes cuentan con herramientas especializadas de IA para crear o alterar imágenes, videos o audios.
Por su parte, German Vargas, director del CDTI (Centro de desarrollo en tecnología e Innnovación) Universidad El Bosque, indicó que hay delincuentes especializados en tomar muestras de voz a través de grabaciones públicas utilizando la técnica de phishing.
Una vez se tengan las grabaciones se procede a ingresar las muestras de voz a un algoritmo de inteligencia artificial para que descubra los patrones de dicha voz y a partir de ahí, se puede usar esa voz para que diga cualquier cosa.
A su turno, el ingeniero Andrés Salinas, vicerrector de innovación y emprendimiento de la UNAD, indicó que un software con IA pueda reemplazar el rostro o la voz de una persona por el de otra y de ese modo se puede conseguir que una celebridad aparezca diciendo cosas que son falsas.
Salinas también señaló que en internet existen tutoriales detallados para que cualquier persona pueda contenido usando la imagen de una celebridad o cualquier persona, pese a que estas herramientas suelen ser usadas para generar memes, los ciberdelincuentes son los que más han aprovechado esos recursos para sus actividades fraudulentas.
¿Si cualquiera puede usar tecnología, es fácil ejecutar esas estafas?
David López indicó que la inteligencia artificial generativa se ha hecho muy popular porque cualquier persona puede acceder y usar ese servicio. Basta con una solicitud en texto (prompt), para que la IA pueda crear todo tipo de imagen, video, audio.
Por lo tanto, es sumamente sencillo producir todo tipo de engaños para estafar a los cibernautas. Esta situación crea un gran desafío en materia de ciberseguridad.
¿Qué recursos o herramientas tienen las personas para detectar un contenido falso?
De acuerdo con López, pese a que las nuevas modalidades de ciberestafas usan tecnologías más sofisticadas; la base del engaño es el error humano y la posibilidad de que las víctimas puedan ser manipuladas con información que de alguna manera afecte sus emociones.
Por lo tanto, el principal recurso para poder detectar un engaño es analizar con cautela cada contenido para así encontrar una posible inconsistencia que exponga la trampa.
Por su parte, el ingeniero Salinas recalcó que la observación crítica es fundamental para encontrar detalles clave en una foto, audio o video creado con IA. Agregado a ello ofrece las siguientes recomendaciones:
Prestar atención a detalles como:
- Desajustes entre el movimiento de los labios y el sonido, o cambios repentinos en la calidad de la imagen.
- Movimientos faciales o expresiones no naturales, o reacciones que no coinciden con el contexto.
- Fallas en la información como fechas incorrectas, datos inconsistentes o información que contradice otras fuentes confiables.
Por otra parte, Salinas recomienda utilizar herramientas de verificación como:
Sitios web de verificación de datos, las cuales cuentan con herramientas para corroborar la autenticidad de una foto, audio o video.
Usar extensiones para navegadores como ‘Deepfake Detection’ o ‘Fake News Alert’, que analizan imágenes y videos para detectar posibles manipulaciones.
Efectuar una búsqueda inversa de imágenes, basta con subir una imagen a Google Images o TinEye para encontrar la fuente original y verificar si ha sido manipulada.
Medidas preventivas para no caer en estafas con IA
- Desconfiar de contenido que parece demasiado bueno para ser verdad: si un video o audio parece demasiado perfecto o improbable, es probable que sea falso.
- Nunca compartir contenido sin verificar: antes de enviar un video o audio hay que asegurarse de que sea auténtico. Compartir contenido falso ayuda a su propagación.
- Mantenerse informado: seguir las noticias sobre las últimas técnicas de suplantación de voz y video puede ayudar a reaccionar mejor ante posibles contenidos falsos.
- Siempre usar contraseñas y el servicio de verificación de doble factor, esto ayudará a protegerse de ataques de ingeniería social con videos falsos
“Daniela Reyes”, que muchos han confundido con la verdadera pareja de Luis Díaz, la también colombiana Geraldine Ponce, madre de los dos hijos del nacido en Barrancas.