El análisis de los cinco principales sitios web de deepfake realizado por Channel 4 News ha revelado un impactante hallazgo; cerca de 4.000 figuras famosas están enlistadas, de las cuales 255 tienen nacionalidad británica.
Esta lista incluye a una amplia gama de personalidades, desde actrices y estrellas de televisión hasta músicos y YouTubers, cuyos rostros han sido manipulados y superpuestos en material pornográfico mediante el uso de avanzada inteligencia artificial.
Así mismo, la investigación encontró que los cinco sitios recibieron 100 millones de visitas en el espacio de tres meses. La presentadora de noticias de Channel 4, Cathy Newman, que se encontraba entre las víctimas, dijo, “Se siente como una violación, simplemente, se siente realmente siniestro que alguien que ha creado esto, no pueda verlo, y ellos puedan ver este tipo de versión imaginaria de mí, esta versión falsa de mí”.
Desde el 31 de enero, según la Ley de Seguridad en Línea, compartir dichas imágenes sin consentimiento es ilegal en el Reino Unido, pero la creación del contenido no lo es. La legislación se aprobó en respuesta a la proliferación de pornografía deepfake creada por IA y aplicaciones.
En 2016, los investigadores identificaron un vídeo porno deepfake en línea. En los primeros tres trimestres de 2023, se subieron 143.733 nuevos vídeos porno deepfake a los 40 principales sitios de pornografía deepfake, más que en todos los años anteriores combinados.
Sophie Parrish, de 31 años, de Merseyside, descubrió que se habían publicado en línea imágenes fabricadas de ella desnuda antes de que se introdujera la legislación. Ella le dijo a Channel 4 News: “Es simplemente muy violento, muy degradante, es como si las mujeres no significaran nada, simplemente no valiéramos nada, solo fuéramos un trozo de carne. Pareciera que los hombres pueden hacer lo que quieran.
Confié en todos antes de esto”. Se está llevando a cabo una consulta sobre cómo el organismo de control de radiodifusión Ofcom hará cumplir y aplicará la Ley de Seguridad en Línea, que ha enfrentado numerosos retrasos. Un portavoz de Ofcom dijo: “El material ilegal deepfake es profundamente perturbador y dañino”.
Según la Ley de Seguridad en Línea, las empresas tendrán que evaluar el riesgo de que contenido como este circule en sus servicios, tomar medidas para evitar que aparezca y actuar rápidamente para eliminarlo cuando se den cuenta. “Aunque las reglas aún no están en vigor, alentamos a las empresas a implementar estas medidas y proteger a sus usuarios ahora”.
Así mismo, según The Guardian, un portavoz de Google dijo, “”Entendemos lo angustioso que puede ser este contenido y estamos comprometidos a aprovechar nuestras protecciones existentes para ayudar a las personas afectadas. “
“Según nuestras políticas, las personas pueden eliminar de la Búsqueda páginas que presenten este contenido e incluyan su imagen y si bien esto es un desafío técnico para los motores de búsqueda, estamos desarrollando activamente salvaguardas adicionales en la Búsqueda de Google, incluidas herramientas para ayudar a las personas a protegerse a escala, junto con mejoras de clasificación para abordar este contenido de manera amplia”, continuo.
Por otro lado, y ante la grave situación, Ryan Daniels, de Meta, propietaria de Facebook e Instagram, dijo, “meta prohíbe estrictamente la desnudez infantil, el contenido que sexualiza a los niños y los servicios que ofrecen imágenes de desnudos no consensuales generadas por IA. Si bien esta aplicación, que crea deepfakes, sigue estando ampliamente disponible en varias tiendas de aplicaciones, hemos eliminado estos anuncios y las cuentas detrás de ellos”.