Mundo
Video de Facebook que sugiere erróneamente que presidente de EE. UU., Joe Biden, es pedófilo no viola reglas actuales, dice consejo asesor
El comité de supervisión ataca la política “incoherente” de Meta sobre videos manipulados engañosamente por considerarla demasiado centrada en la IA
En mayo de 2023, apareció en Facebook un video manipulado del presidente Joe Biden. La grabación original lo mostraba durante las elecciones de mitad de mandato de 2022, colocando una calcomanía de “Voté” en el pecho de su nieta y dándole un beso en la mejilla.
La versión trucada reproducía el clip en un bucle para que pareciera que tocaba repetidamente a la niña, con un pie de foto que lo tachaba de “pedófilo”.
Meta decidió dejar el video en la plataforma. El Consejo Asesor de Contenido de la empresa, un organismo independiente que se ocupa de la moderación de contenidos, anunció que revisaría esa decisión, en un intento de presionar a Meta para que abordara la manera en que gestionará los medios manipulados y la desinformación, de cara a las elecciones presidenciales de Estados Unidos de 2024.
Los expertos llevan meses advirtiendo que las elecciones de 2024 serán más complicadas y peligrosas gracias a la IA, que permite falsificar audio, video e imágenes con mayor realismo. Aunque Meta se sumó a otras empresas tecnológicas comprometiéndose a intentar frenar los daños de dicha tecnología, las estrategias más comunes, como las marcas de agua en los contenidos, solo han demostrado una cierta eficacia, en el mejor de los casos.
Sin embargo, y según el medio de comunicación The Guardian, la junta de supervisión de Meta descubrió que el video de Facebook que sugiere erróneamente que el presidente de los Estados Unidos, Joe Biden, es un pedófilo no viola las reglas actuales de la compañía, al tiempo que considera esas reglas “incoherentes” y demasiado centradas en el contenido generado por IA.
La junta, que está financiada por Meta, la empresa matriz de Facebook, pero administrada de manera independiente, se hizo cargo del caso del video de Biden en octubre en respuesta a una queja de un usuario sobre un video alterado de siete segundos del presidente.
Decidió que Meta tenía razón al dejar el video bajo su política actual, que prohíbe videos alterados de manera engañosa solo si fueron producidos por inteligencia artificial o si hacen que las personas parezcan decir palabras que en realidad nunca dijeron.
Pero el fallo es el primero en criticar la política de Meta sobre los “medios manipulados” en medio de crecientes preocupaciones sobre el uso potencial de nuevas tecnologías de inteligencia artificial para influir en las elecciones de este año. Dijo que la política “carece de una justificación persuasiva, es incoherente y confusa para los usuarios, y no especifica claramente los daños que busca prevenir”.
Sugirió que Meta lo actualizara para cubrir contenido de audio y video y aplicar etiquetas que lo identifiquen como manipulado independientemente de si se utilizó IA.
No llegó a pedir que la política se aplicara a las fotografías, diciendo que hacerlo podría hacer que la política fuera demasiado difícil de aplicar a la escala de Meta.
Meta, que también es propietaria de Instagram y WhatsApp, informó a la junta durante la revisión que planeaba actualizar la política “para responder a la evolución de una IA nueva y cada vez más realista”, según el fallo.
Como se mencionó, ante el clip en Facebook en que se manipularon imágenes reales de Biden intercambiando pegatinas de “Yo voté” con su nieta, durante las elecciones de mitad de período de Estados Unidos de 2022 y besándola en la mejilla, la junta dijo que el contenido alterado sin IA era “prevalente y no necesariamente menos engañoso” que el contenido generado por herramientas de IA. La aplicación de la ley, añadió, debería consistir en aplicar etiquetas al contenido en lugar del enfoque actual de Meta de eliminar las publicaciones de sus plataformas.
La compañía dijo en un comunicado el lunes que estaba revisando el fallo y respondería públicamente dentro de 60 días.