Actualmente el mundo está anonadado y se apoya cada vez más en los recientes desarrollos que se han ido conociendo en la industria de las Tecnologías de Información y la Comunicación (TIC), especialmente en temas relacionados con la inteligencia artificial y su llegada al mundo de los chats. No obstante, esta tecnología al parecer no estaría siendo tan infalible como se cree , ya que las quejas van creciendo con el paso del tiempo.
Los usuarios del robot conversacional estadounidense Replika buscaban compañía, algunos un vínculo romántico o incluso intercambios con un tinte sexual. Pero, en el último año abundan las quejas de personas que recibieron imágenes demasiado explícitas o que se sintieron acosadas sexualmente.
El viernes pasado, la Agencia Italiana de Protección de Datos expresó su inquietud por el impacto en las personas más frágiles y prohibió que Replika use los datos personales de los italianos, afirmando que va en contra del Reglamento General de Protección de Datos (RGPD).
Replika fue contactado por la AFP, pero no respondió a una solicitud de comentario. Este caso muestra que el reglamento europeo - que es un quebradero de cabeza para los gigantes de la tecnología que han sido multados con miles de millones de dólares por infringirlo - podría convertirse en un enemigo de la inteligencia artificial que genera contenido.
El robot Replika fue entrenado basándose en una versión del modelo conversacional GPT-3 de la empresa OpenAI, que fue la creadora de chatGPT. Este sistema de Inteligencia Artificial (IA) utiliza información de internet para generar respuestas coherentes a las preguntas de los usuarios.
Esta tecnología promete una revolución de las búsquedas en internet y de otros dominios en los que pueda ser utilizada. Pero, los expertos advierten que también representa riesgos que hacen necesaria su regulación, que es difícil de implementar.
Aumenta la tensión
Actualmente, la Unión Europea es una de las instituciones donde se debate cómo regular esta nueva herramienta tecnológica. El proyecto de norma “AI Act” podría estar terminado para finales de 2023 o inicios de 2024.
“Estamos descubriendo los problemas que la IA puede plantear. Hemos visto que chatGPT puede ser usado para crear mensajes de phishing (fraude online) muy convincentes o para tratar una base de datos para trazar la identidad de una persona concreta”, explicó a la AFP Bertrand Pailhès, que dirige una nueva división de IA de la autoridad francesa regulatoria CNIL.
Los juristas destacan la dificultad que hay para comprender y regular la “caja negra” en la que se funda el razonamiento de la IA.
“Vamos a asistir a una fuerte tensión entre el RGPD y los modelos de IA que generan contenido”, dijo a la AFP el abogado alemán Dennis Hillemann, que es un experto del sector.
“Ni el proyecto de regulación AI Act ni la normativa actual RGPD pueden resolver los problemas que estos modelos de IA van a traer”, afirmó y además de esto va a ser necesario replantear la regulación “en términos de lo que los modelos generadores de IA pueden hacer realmente”, adelantó.
Se necesitan cambios urgentes
El último modelo de OpenAI, GPT-4, va a salir próximamente con un modo de funcionar que puede acercarse aún más a la capacidad de un ser humano. Pero todavía este tipo de IA comete muchos errores cuando analiza los hechos, a veces muestra que es parcial o puede producir afirmaciones que resulten difamatorias, por lo que muchos afirman que debe ser regulado.
Jacob Mchangama, experto en libertad de expresión, no comparte este enfoque y sostiene que “incluso si los chatbots no tienen derecho a la libertad de expresión, debemos permanecer vigilantes frente a la posibilidad de que los gobiernos supriman sin trabas la inteligencia artificial”.
Dennis Hillemann señala que es vital que haya transparencia. “Si no regulamos esto, vamos a entrar en un mundo donde ya no se puede diferenciar entre lo que haya sido hecho por personas o por IA”, explicó. “Y eso nos cambiaría profundamente como sociedad”.
*Con información de AFP.