Las empresas estadounidenses Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI, a la vanguardia de esta tecnología, se comprometieron a trabajar en particular en sistemas de marcado de contenidos creados con IA con el fin de reducir los riesgos de fraude y desinformación.
En especial, prometieron probar sus programas informáticos interna y externamente antes de su lanzamiento, invertir en ciberseguridad y compartir las informaciones pertinentes sobre sus herramientas con autoridades e investigadores, incluidas posibles fallas.
También deberán “desarrollar técnicas sólidas para asegurar que los usuarios sepan cuándo los contenidos han sido generados por IA, como un sistema de marca de agua”, indicó un comunicado del gobierno estadounidense.
“Esto permitirá que la creatividad ligada a la IA prospere mientras se reducen los peligros relacionados con fraudes o engaños”, precisó.
Las fotografías falsas o los vídeos manipulados extremadamente realistas, también llamados “deepfakes”, existen desde hace años, pero la IA generativa, capaz de producir imágenes tras una simple solicitud, genera temores por olas de contenido desinformativo en línea.
Estas pueden prestarse para fabricar estafas muy creíbles o incluso para manipular la opinión, una perspectiva preocupante en especial cuando se aproximan elecciones en Estados Unidos en 2024.
Hasta ahora, las principales empresas involucradas se han mostrado, sobre todo, reticentes a la idea de agregar dichas marcas sobre los contenidos creados con sus programas.
“Es un tema complicado”, admitió a periodistas un alto funcionario de la Casa Blanca.
La marca de agua “debe funcionar tanto para los contenidos visuales como sonoros”, detalló. “Técnicamente, debe ser robusta, pero también fácil de ver para los usuarios”.
“Es un buen primer paso para ayudar al público a identificar los contenidos creados con IA”, comentó James Steyer, fundador de la oenegé Common Sense Media.
“Pero este tipo de marcado por sí solo no bastará para evitar a actores maliciosos utilizar dichos contenidos con fines nefastos o ilegales”, matizó el experto, al mencionar la existencia de programas piratas de IA generativa disponibles en línea.
En mayo, la Casa Blanca insistió sobre el “deber moral” de las empresas de IA de garantizar la seguridad de sus productos.
Las tensiones políticas en el Congreso hacen poco probable legislar sobre IA en lo inmediato, aunque el gobierno adelantó que trabaja en un decreto ejecutivo.
- ¿Google prepara una nueva IA, destinada a ponerle fin a las ‘trampas’ de ChatGPT?-
Google está probando una nueva herramienta de inteligencia artificial (IA) generativa de producción de noticias, enfocada a ayudar a los periodistas a redactar artículos, que ya ha exhibido a directivos de medios como The New York Times, The Washington Post y The Wall Street Journal.
Esta herramienta, conocida internamente como Génesis, es capaz de recopilar información, como detalles de eventos actuales, y servir como una especie de asistente personal para periodistas y redactores, tal y como han confirmado personas relacionadas con la compañía a The New York Times.
En concreto, Google ha desarrollado una herramienta con la que espera ofrecer una tecnología responsable enfocada a alejar la industria editorial “de las trampas” de la inteligencia artificial generativa. Esto en contraste a la aparición de nuevos blogs que se sirven de plataformas como ChatGPT para generar todo tipo de escritos aparentemente noticiosos y que pueden contener información imprecisa o datos que no son reales.
De manera que esta iniciativa se presenta como táctica pensada en detener la circulación de publicaciones aparentemente escritas por seres humanos que poseen falsas informaciones, las cuales podrían impulsar campañas de desinformación en contra de funcionarios públicos, entidades u otros objetivos.
Google, por el momento, solo ha reconocido que se ha asociado con los editores de noticias, “especialmente con los más pequeños” y que está “en las primeras etapas de exploración de ideas” con este trabajo, en palabras de la portavoz, Jenn Crider.
*Con información de AFP Y Europa Press.