Microsoft valora positivamente la regulación de la inteligencia artificial en la que trabaja la Unión Europea, que ve como una oportunidad para establecer un marco legal efectivo a nivel internacional y de colaboración público-privada que garantice la gobernanza.
La Unión Europea trabaja en una regulación de la inteligencia artificial (IA) que promueva el desarrollo seguro de esta tecnología, atendiendo a los beneficios que puede aportar en áreas como la salud, la industria o el transporte, pero también a los riesgos que representa para los usuarios y la sociedad en su conjunto.
En Microsoft creen que esta regulación ofrece una oportunidad para establecer un marco legal efectivo, basado en el estado de derecho, como ha expuesto el presidente de Microsoft, Brad Smith, este jueves 29 de junio en Bruselas, en el evento Europe’s Digital Transformation: Embracing the AI Opportunity.
La compañía ha destacado la necesidad de establecer acuerdos público-privados para asegurar la gobernanza de la IA, teniendo en mente el impacto que esta tecnología tiene en la actualidad —y tendrá en el futuro—, a nivel internacional e implicando a los distintos actores, desde la industria tecnológica y el gobierno hasta los centros de investigación y la sociedad civil.
Asimismo, ha compartido su plan de cinco puntos para la gobernanza de la IA, que ya presentó en mayo, pero que en esta ocasión ha reiterado con el foco puesto en Europa y la regulación que prepara. Esta última se encuentra en conversaciones de los estados miembros, que tienen la intención de alcanzar un acuerdo antes de que termine el año.
Con el objetivo de “acelerar la acción gubernamental”, la compañía considera que hay que crear a partir de marcos existentes o emergentes que permitan avanzar hacia una IA segura, con un enfoque basado en el riesgo. En este, se deben definir los procesos para la identificación y mitigación de los riesgos, y para la comprobación de los sistemas antes de su despliegue.
En este sentido, el presidente de Microsoft ha reconocido que la regulación europea establece un punto de referencia para el futuro y ha defendido que debe mantener un diálogo con Estados Unidos. Allí, el National Institute of Standards and Technology (NIST) ha aprobado un marco para la gestión del riesgo de la IA, que Microsoft se ha comprometido a adoptar.
También recoge la necesidad de establecer frenos de seguridad para los sistemas de IA, especialmente aquellos dedicados a la gestión de las infraestructuras críticas, como son la red eléctrica, el sistema de agua y el tráfico de la ciudad.
La regulación europea recoge estos sistemas de alto riesgo y responsabiliza a sus desarrolladores de la implementación de las medidas de seguridad pertinentes. Microsoft profundiza en este aspecto y propone un enfoque holístico que mantenga la supervisión humana, la resiliencia y la solidez, y que dichos frenos se incorporen desde el diseño en los sistemas de IA de alto riesgo, que deberán desplegarse desde centros de IA con licencia.
Una tercera propuesta recoge la necesidad de un marco legal amplio, basado en la arquitectura tecnológica de la IA. En este punto, la responsabilidad de cada actor dependería del rol que adopte con respecto a esta tecnología, siendo mayor la de quienes están más próximos a la toma de decisiones relevantes sobre el diseño, el desarrollo, el despliegue y el uso.
En esa medida, también defiende la idea de establecer obligaciones y objetivos para los modelos fundacionales o básicos altamente capaces y para los operadores de la infraestructura de IA en la que se desarrollen y desplieguen.
Como recuerda la firma tecnológica, la regulación europea obliga a los desarrolladores de los sistemas de alto riesgo a que incorporen un sistema de gestión de riesgo para garantizar que se prueban y mitigar los riesgos dentro de lo posible, así como para realizar un seguimiento posterior una vez en el mercado.
Microsoft también aboga por la transparencia, tanto de los sistemas de IA como de sus recursos, si bien reconoce que el debate en torno a este tema suele generar tensión en lo que respecta a encontrar el equilibrio con la seguridad.
En este sentido, la regulación europea obliga a los proveedores a dejar claro que se está interactuando con una IA y a que sea fácilmente identificable que un contenido ha sido creado con un sistema de IA generativa.
El presidente de Microsoft, incluso, ha anticipado que la compañía lanzará pronto una serie de herramientas para que los usuarios puedan identificar los contenidos de audio y video que han sido generados por una IA, y comprender su origen.
Por último, desde la compañía subrayan la importancia de proteger la democracia y los derechos fundamentales en el uso de la inteligencia artificial.
El directivo recuerda incluso que la IA es una herramienta extraordinaria, pero que, al igual que otras tecnologías, puede usarse mal y convertirse en un arma poderosa. Ante esta posibilidad, considera que hay que trabajar de forma conjunta en el desarrollo de tecnologías de IA defensivas.
*Con información de Europa Press.