El robot conversacional ChatGPT ha puesto a la Unión Europea (UE) ante una encrucijada en su esfuerzo por regular el uso de la inteligencia artificial (IA), ya que debe idear una forma de proteger a los usuarios de una tecnología en cambio permanente.
La UE trabaja ya desde hace más de un año en un reglamento que ponga orden en el uso de la IA y que al mismo tiempo permita proteger a los usuarios, aunque ChatGPT ha transformado la forma en que esa tecnología es vista por quienes la utilizan.
ChatGPT, creado por la empresa estadounidense OpenAI, surgió en noviembre y rápidamente pasó a ser usado por usuarios asombrados por su capacidad para responder preguntas con claridad, escribir sonetos y proporcionar información sobre temas complicados.
Productos obtenidos con ChatGPT han superado exámenes médicos y legales diseñados para estudiantes humanos, obteniendo altas calificaciones, pero la tecnología también conlleva riesgos, una vez que su sistema de aprendizaje y modelos similares de la competencia ya se integran en las aplicaciones comerciales.
Por ello, la UE ha tenido que volver al punto inicial en su esfuerzo de desarrollar un marco regulatorio, hasta hallar una forma para regular la IA en forma efectiva.
La Comisión Europea, el brazo ejecutivo de la UE, anunció por primera vez en abril de 2021 un plan para un conjunto de reglas sobre IA, y el Parlamento Europeo espera finalizar un proyecto de ley sobre IA en este mes.
El comisario europeo de Industria, Thierry Breton, adelantó que los Eurodiputados, la Comisión y los gobiernos del bloque trabajan para “aclarar más las reglas” sobre la tecnología de ChatGPT, conocida como IA de propósito general.
Desafíos:
Los usuarios de las redes sociales se han divertido experimentando con la salida de ChatGPT a la escena, pero la tecnología utilizada no es un juego.
Profesores y maestros temen que estudiantes la usen para hacer trampa, ya que ChatGPT puede ‘escribir’ ensayos enteros, al tiempo que legisladores temen que se use con fines de desinformación. Las preocupaciones sobre los riesgos han sido reconocidas por altos funcionarios de la UE.
“Como lo demuestra ChatGPT, las soluciones de IA pueden ofrecer grandes oportunidades para las empresas y los ciudadanos, pero también pueden presentar riesgos. Es por eso que necesitamos un marco regulatorio sólido para garantizar una IA confiable basada en datos de alta calidad”, dijo Breton.
El plan es que la Comisión Europea, el Consejo Europeo -que representa a los estados miembros del bloque- y el Parlamento discutan a partir de abril una versión final de la ley sobre IA.
Dragos Tudorache, el eurodiputado rumano que coordina el esfuerzo para aprobar la ley sobre IA en el Parlamento, dijo que ChatGPT es uno de los ejemplos más conocido de IA de propósito general, aunque existen derivados.
Usando lo que se conoce como un “modelo de lenguaje extenso”, ChatGPT es un ejemplo de IA generativa que, operando sin guía, puede crear contenido original mediante el análisis de datos previos.
“De hecho, propondremos un conjunto de reglas para regir la IA de uso general y los modelos básicos en particular”, dijo Tudorache.
Diversos expertos, sin embargo, se quejan de que los riesgos de sistemas como ChatGPT siempre fueron claros y que las advertencias fueron compartidas con técnicos de la UE ya cuando se comenzó a trabajar en la regulación de la IA.
“Nuestra recomendación en ese entonces era que también deberíamos regular los sistemas de IA que tienen una variedad de usos”, dijo Kris Shrishak, experto en tecnologías en el Consejo Irlandés para las Libertades Civiles.
Shrishak apuntó que la eficacia de la ley dependerá del borrador final, pero dijo que el texto elaborado “establece una buena base”, y que “dispone de ciertos mecanismos para identificar nuevos riesgos”. Un problema más apremiante sería la aplicación de la regulación, advirtió Shrishak, y por ello Parlamento Europeo se concentraba ahora en fortalecer este aspecto.
*Con información de la agencia AFP.