Los últimos años de este siglo se han caracterizado por un avance acelerado de la inteligencia artificial (IA), la cual está cambiando, sin duda alguna, la manera en la que se han venido desarrollando ciertas actividades en los diferentes ámbitos de la vida.
No obstante, esta herramienta también ha generado varias críticas alrededor del mundo, puesto que se está utilizando para actos delictivos. Criminales especializados en ejecutar ciberestafas en redes sociales la están usando para engañar a la gente.
Usuarios de Instagram y Facebook, incluso, denunciaron la semana pasada un video en el que aparece un Luis Díaz, aparentemente, lanzando “su nuevo proyecto” social en Colombia. En la pieza se menciona a una tal “Daniela Reyes”, que muchos confundieron con la verdadera pareja del guajiro, Geraldine Ponce.
La falsa noticia utiliza la inteligencia artificial para hacer parecer que el futbolista en verdad está pidiendo ayuda, diciendo las palabras que los delincuentes eligen a su antojo. Asimismo, usan una supuesta nota de Noticias Caracol para hacer pasar por real la publicación.
“Crecí en una familia pobre y quiero ayudar a los colombianos. Daniela y yo creemos que todos deben ser independientes económicamente y sin límites. Creamos este proyecto para cambiar vidas”, se escucha en la grabación.
Sin embargo, este no es el único video, elaborado con la IA, que está circulando en Colombia para estafar incautos durante las últimas semanas, puesto que James Rodríguez también ha terminado metido en este delicado tema.
El cucuteño, al igual que Díaz, aparece en un informe falso de Noticias Caracol, donde indican que este creó un nuevo emprendimiento debido a que se retiró del fútbol profesional. Además, imitan una vez más la voz del jugador de la Selección Colombia.
“Creamos este proyecto para que la gente de Colombia sea feliz y no necesite nada. Solo una inversión puede cambiar tu vida para mejor y olvidarte de todos tus problemas financieros”, promete, supuestamente, James.
Adicionalmente, en el video habla una mujer, que se identifica como la hermana de Rodríguez, cuyo caso aparece en Noticias RCN. Lo más alarmante es que los presuntos estafadores llevan a los incautos a registrarse en un grupo de Telegram que nada tiene que ver con el supuesto proyecto que anuncia el mediocampista cafetero.
Los dos canales nacionales se han visto perjudicados con estas lamentables situaciones, pues están utilizando de mala manera su imagen. Hay muchas personas que siguen cayendo en estos videos, por lo cual toca denunciarlos,
¿Cómo se puede usar una IA para suplantar a una celebridad?
David López, vicepresidente de ventas para Latinoamérica y EE. UU. de Appgate, le indicó a SEMANA que las nuevas inteligencias artificiales han permitido refinar las estafas tipo deepfake, las cuales tienen el objetivo de imitar o suplantar a las personas, principalmente políticos, celebridades, deportistas, entre otros.
Igualmente, agregó que los delincuentes cuentan con herramientas especializadas de IA para crear o alterar imágenes, videos o audios. pues toman muestras de voz a través de grabaciones públicas utilizando la técnica de ‘phishing’.
Una vez se tengan las grabaciones se procede a ingresar las muestras de voz a un algoritmo para que descubra los patrones de dicha voz y a partir de ahí, se puede usar esa voz para que diga cualquier cosa. El principal recurso para poder detectar un engaño es analizar con cautela cada contenido, para así encontrar una posible inconsistencia que exponga la trampa.