La inteligencia artificial ha cobrado gran relevancia y popularización, diferentes internautas han experimentado ‘Dinoprofesiones’ y la creación de contenido multimedia desde cero, solo con una descripción textual.

La IA se ha convertido en una herramienta tan poderosa, que en redes sociales se ha viralizado algunos vídeos en los que se puede apreciar algunos artistas ya fallecidos interpretando a manera de cover canciones actuales, utilizando la IA y la biblioteca vocal de los cantantes en plataformas como Youtube.

Inteligencia artificial modifica el rostro de las personas. | Foto: Bing Image Creator

La polémica más reciente por el uso de inteligencia artificial obedece a las fotografías hiperrealistas de celebridades como Donald Trump siendo perseguido por policías o la del Papa Francisco en una fiesta de electrónica, todas falsas.

Robos informáticos

Aunque el uso de la IA representa un avance tecnológico y social, también ha sido utilizada para realizar diferentes robos informáticos.

El más reciente caso se presentó en China, donde un estafador utilizó la inteligencia artificial para modificar su apariencia y hacerse pasar por el amigo de un empresario utilizando la red social de mensajería y llamadas gratis WeChat. Por medio de esta llamada, consiguió robarle más de 600 mil dólares, lo que se traduce a 2 mil 600 millones 200 mil pesos colombianos.

Hackers utilizan la Inteligencia Artificial para estafar. | Foto: Getty Images

El estafador que se hizo pasar por un amigo de la víctima, un empresario tecnológico de apellido Guo, llamó diciendo que necesitaba una transferencia de 4,3 millones de yuanes desde una cuenta de banco para poder pagar la garantía de un concurso público en el que supuestamente quería participar.

“En ese momento, comprobé la cara y la voz de la persona que me llamaba por vídeo, así que bajé la guardia”, afirma el empresario en declaraciones recogidas por el diario chino ‘Global Times’.

Según detalló el empresario, aunque él recibió la videollamada desde un usuario diferente al de su conocido, no pensó que podría tratarse de un robo, ya que la persona que se encontraba con el en la videollamada tenía los mismos rasgos físicos de su conocido, además del mismo tono de voz. Por lo cual, el hombre transfirió el dinero sin sospecha alguna de que estaba siendo robado.

El empresario de apellido Guo se dio cuenta de la estafa luego de comunicarse por mensaje con su amigo y comprobar que este no tenia conocimiento de la transacción. Fue en ese momento, que el empresario no dudó en poner su caso en conocimiento de la policía, el cual procedió a bloquear rápidamente la operación, impidiendo la transferencia de 3,36 millones de yuanes, cerca de 2 mil 200 millones 300 mil pesos.

Según el diario ‘Global Times’, continúan las investigaciones para recuperar el resto del dinero, aunque no hay noticias de la identidad de los estafadores.

Denuncias por robos con IA

Información suministrada por The Washington Post, asegura que para 2022, solo en Estados Unidos se reportaron 36.000 denuncias de personas que fueron estafadas con ayuda de la clonación de voz, ya que los ladrones emularon la voz de familiares y seres queridos de las víctimas a través de la inteligencia artificial y haciéndose pasar por estas personas exigían grandes cantidades de dinero y objetos de valor con la excusa de solucionar emergencias de último minuto.

Estafan personas en china haciéndose pasar por familiares y amigos. | Foto: Getty Images

A la fecha, las autoridades de China han realizado un llamado de la población en general, recomendando no compartir información biométrica resaltando: “sean cautelosos al dar información biométrica y que se abstenga de compartir videos y otras imágenes de sí mismos en Internet”, aseguran las autoridades.

Es de recordar, que esta nueva técnica utilizada por los cibercriminales, ha tenido antecedentes que llegan hasta la alteración de fotografías en el siglo XVIII, cuando se retiraba el rostro de una persona en una fotografía impresa, y se remplazaba por otro con juegos visuales de perspectiva o usando otro rostro de otra fotografía.