Tecnología
G7 aboga por uso “responsable” de la IA generativa, ¿se aproxima una regulación?
Inteligencia artificial es beneficiosa para la humanidad, pero hay que controlar su aplicación y uso.
Los líderes del G7 decidieron este sábado, en una cumbre en Hiroshima (Japón), la formación de un futuro “grupo de trabajo” para abordar el “uso responsable” de la Inteligencia Artificial (IA) y los riesgos que plantea, incluida la desinformación.
“Encomendamos a los ministros competentes que establezcan el Proceso de Hiroshima sobre IA, a través de un grupo de trabajo creado en cooperación con organizaciones internacionales, con miras a debatir sobre IA generativa a finales de año”, según el comunicado del G7, cuya reunión concluirá el domingo.
Al igual que ChatGPT, el más conocido actualmente, los programas de IA generativa (capaces de producir texto, imágenes, sonido, video...) están en plena expansión en el mundo, al tiempo que suscitan profunda preocupación en numerosos sectores.
Las discusiones del grupo de trabajo del G7 sobre el asunto podrán también debatir sobre la “gobernanza, la protección de los derechos de propiedad intelectual” y la “utilización responsable” de estas nuevas tecnologías, pero también sobre los medios de contrarrestar la “manipulación de información” y la “desinformación” a través de estas herramientas.
Tendencias
“Reconocemos la importancia de los procedimientos que promueven la transparencia, la apertura, los procesos equitativos, la imparcialidad, el respeto a la privacidad y la inclusión para promover una IA responsable”, insistió el G7, que reúne a las mayores democracias industrializadas (Estados Unidos, Japón, Alemania, Francia, Reino Unido, Italia y Canadá).
Expertos en IA destacan su papel “innovador”, pero reclaman una pronta regulación
La inteligencia artificial (IA) juega un papel fundamental tanto en las empresas y entornos laborales como en el día a día de la sociedad, generando un cambio disruptivo en todos los ámbitos del desarrollo tecnológico y, a su vez, planteando algunos riesgos que han de ser abordados “urgentemente” para preservar los derechos de los ciudadanos.
Los expertos del sector apuestan por continuar impulsando el desarrollo innovador de la IA con sus múltiples casos de uso, al tiempo que abogan por “trabajar dentro de un marco regulatorio importante como el que está llevando a cabo Europa”, destacando la seguridad y privacidad de los datos de la ciudadanía. Asimismo, señalan la importancia de que este trabajo regulatorio sea “continuo” para que “deje evolucionar la IA” y, a la vez, sea capaz de “prever futuros riesgos”.
La innovación y riesgos de la IA son algunos de los temas que se han tratado en el marco del Foro Tecnológico organizado por Europa Press, ‘Inteligencia Artificial como motor de la innovación’, que ha sido presentado por el director de Innovación de The Valley, Juan Luis Moreno, y ha contado con un discurso de apertura a cargo de la secretaria de Estado de Digitalización e Inteligencia Artificial, Carme Artigas.
Artigas también ha manifestado que España está “en una fase de transición” hacia un nuevo mundo digital, en el que está liderando con iniciativas y proyectos propios tanto en Europa como a nivel internacional. En concreto, ha destacado el liderazgo en el debate de IA “justa y ética” en línea con los “principios y valores humanos”.
Igualmente, ha recordado acciones concretas que está llevando a cabo España para la transformación del sector, con proyectos como RETEC, la instalación de dos ordenadores cuánticos para distintas estrategias, la carta de derechos digitales presentada a la Unión Europea o la creación de la primera agencia de supervisión de la IA en el mundo, que se implantará en Galicia.
*Con información de Europa Press.