La Inteligencia Artificial (IA) está proliferando en diversos campos y uno de ellos son los deepfakes o “falsedades profundas”, que cada vez cuenta con más herramientas para su uso y que, a su vez, está ocasionando una serie de preocupaciones entre los usuarios y profesionales ante los posibles casos de uso indebido, que han afectado a celebridades famosas de la talla de Taylor Swift y Joe Biden.

De acuerdo con LISA Institute, de Madrid, los deepfakes o “falsedades profundas” hacen referencia a los archivos de video, imagen o voz manipulados mediante un software de inteligencia artificial de modo que parezcan originales, auténticos y reales.

Este término combina la palabra fake (falso, ya que este tipo de archivos siempre son falsos, aunque se haga todo lo posible porque parezcan reales) y la palabra deep, proveniente de deep learning (aprendizaje profundo, que es un tipo de aprendizaje automático de la inteligencia artificial).

Una inteligencia artificial ya puede imitar la voz y el rostro de las personas. | Foto: Getty Images

Sin embargo, ¿qué pasaría si los ciberdelincuentes hacen uso de este tipo de herramientas para cometer actos delictivos que ponen en riesgo la información personal y sensible de los usuarios? La respuesta es que todas personas podrían estar expuestas a una suplantación de identidad con ayuda de esta aplicación, ya que con el auge de las redes sociales, es difícil no obtener un selfi, al que cualquiera puede acceder.

La aplicación en mención es Deep-Live-Cam, que debido a su código abierto ha alcanzado el número uno de descargas en GitHub y se ha vuelto viral en redes sociales como X o TikTok. Este software busca ser “una contribución productiva a la industria de los medios generados por IA, que está creciendo rápidamente”. No obstante, ante la preocupación por el uso indebido, es importante que se establezcan “palabras clave seguras con familiares”.

Ante la preocupación por el uso indebido, es importante que se establezcan “palabras clave seguras con familiares”. | Foto: Getty Images / Guillermo Spelucin R.

¿El objetivo? Utilizar estas palabras de seguridad “para detectar intentos de estafa a través de videollamadas en las que los ciberdelincuentes se hiciesen pasar por un conocido usando esta tecnología de deepfake”, informó GitHub.

Un ejemplo de su uso con fines delictivos fue en el mes de febrero, del año en curso, cuando un hombre se hizo pasar en una videollamada por el director financiero de una empresa en Hong Kong. La estafa fue tan convincente que logró robar más de 25 millones de dólares, tal y como recoge el medio Ars Technica. Sin embargo, esta tecnología nunca había sido tan accesible como ahora.

¿Cómo funciona esta aplicación?

Su funcionamiento podría ser más simple. Una vez descargada en el dispositivo, la persona debe seleccionar una fotografía tipo retrato de la persona que quiere suplantar. Luego, se activa la cámara del ordenador y listo, ocurre el intercambio de rostros en tiempo real mediante un modelo de IA llamado Inswapper.