Tecnología
Crean ‘app’ para que modelos de Inteligencia Artificial no copien estilos y obras de artistas
La IA es capaz de crear imágenes digitales de alta calidad a través de plataformas
Un grupo de investigación de la Universidad de Chicago ha creado Glaze, una solución que busca proteger las obras realizadas por artistas reales y así evitar que estas acaben entrenando modelos de Inteligencia Artificial (IA).
En ese sentido, la IA es capaz de crear imágenes digitales de alta calidad a través de plataformas como DALL-E, desarrollada por OpenAI, o Stable Difussion de Stability AI. Estos programas utilizan modelos de aprendizaje automático (‘machine learning’) y se entrenan utilizando bases de datos de imágenes e ilustraciones en muchos casos con créditos de artistas.
Asimismo y debido a esta posibilidad de uso, autores y creadores de obras artísticas han mostrado su preocupación porque la tecnología sea capaz de deshumanizar el arte; un problema en el que también se ven implicados los derechos de autor que se generan con estos trabajos.
En este escenario, investigadores del grupo SAND Lab la Universidad de Chicago han creado la herramienta Glaze, creada para que los artistas puedan proteger sus obras y su estilo personal cuando publican su arte ‘online’, a fin de evitar que la IA copie y sea capaz de aprender su técnica.
Según explican en su página web, Glaze agrega cambios “muy pequeños” a la obra de arte original antes de publicarla en línea. Estos cambios son casi imperceptibles para el ojo humano, por lo que prácticamente no alteran la obra de arte original. Sin embargo, modifican las obras lo suficiente como para que los modelos de IA sean incapaces de copiar “el estilo de autor”.
De ese modo, estas alteraciones de la obra se agregan al dibujo o al cuadro como si se tratase de una nueva capa de estilo, y “el ‘software’ encubre las imágenes para que los modelos aprendan incorrectamente las características únicas que definen el estilo de un artista, frustrando los esfuerzos posteriores para generar plagios artificiales”.
Como la IA interpreta la obra con un estilo diferente al original, es incapaz de crear imágenes que reproduzcan un estilo idéntico al de estos artistas, lo que les protegerá de copias o reproducciones elaboradas sin su consentimiento.
Para comprobar sus resultados, los desarrolladores, dirigidos por los profesores de informática de Neubauer Ben Zhao y Heather Zheng, han llevado a cabo una serie de pruebas y estudios en los que han participado más de 1.000 artistas profesionales.
A pesar del avance que supone la aparición de una herramienta como Glaze, los creadores subrayan que se trata de un proyecto que “aún siguen investigando” y que continuarán actualizando sus herramientas para “mejorar su solidez frente a los nuevos avances en los modelos de arte de IA”.
Inteligencia Artificial: quejas por “acoso” de un chatbot atizan debate sobre la regulación
Actualmente, el mundo está anonadado y se apoya cada vez más en los recientes desarrollos que se han ido conociendo en la industria de las Tecnologías de Información y la Comunicación (TIC), especialmente en temas relacionados con la inteligencia artificial y su llegada al mundo de los chats. No obstante, esta tecnología al parecer no estaría siendo tan infalible como se cree, ya que las quejas van creciendo con el paso del tiempo.
Los usuarios del robot conversacional estadounidense Replika buscaban compañía, algunos un vínculo romántico o incluso intercambios con un tinte sexual. Pero, en el último año abundan las quejas de personas que recibieron imágenes demasiado explícitas o que se sintieron acosadas sexualmente.
La Agencia Italiana de Protección de Datos expresó su inquietud por el impacto en las personas más frágiles y prohibió que Replika use los datos personales de los italianos, afirmando que va en contra del Reglamento General de Protección de Datos (RGPD).
Replika fue contactado por la AFP, pero no respondió a una solicitud de comentario. Este caso muestra que el reglamento europeo - que es un quebradero de cabeza para los gigantes de la tecnología que han sido multados con miles de millones de dólares por infringirlo - podría convertirse en un enemigo de la inteligencia artificial que genera contenido.
*Con información de AFP y Europa Press.