El presidente estadounidense, Joe Biden, emitirá un decreto que exige a los desarrolladores de IA, entre otras cosas, presentar al gobierno federal los resultados de sus pruebas de seguridad cuando sus proyectos supongan “un grave riesgo para la seguridad nacional, la seguridad económica nacional o la salud pública”.
El demócrata, de 80 años, se basa en una ley que data de la Guerra Fría, la Defense Production Act (1950), que otorga al gobierno cierto poder de coacción sobre las empresas cuando está en juego la seguridad del país. Los criterios para estas pruebas de seguridad se fijarán a nivel federal, según el gobierno estadounidense.
En julio, varias gigantes del sector digital, entre ellas Microsoft y Google, ya se habían comprometido a someter sus sistemas de IA a pruebas externas. La Casa Blanca pretende prestar especial atención a los riesgos que puede plantear el desarrollo de la IA en los campos de la biotecnología e infraestructuras.
Además de las iniciativas mencionadas, la administración de Biden se embarca en un compromiso amplio con respecto a la regulación de la Inteligencia Artificial (IA). Una de las áreas críticas en las que se enfocará es la detección e identificación de contenidos generados con IA. Esta tecnología, que ha avanzado significativamente en los últimos años, permite la creación de imágenes, sonidos e incluso videos a una velocidad asombrosa, presentando una fidelidad a la realidad que plantea cuestiones éticas y de seguridad.
El reconocimiento de la IA en la generación de contenido es esencial, dada la capacidad de esta tecnología para manipular visualmente y auditivamente información de manera convincente. Las recomendaciones que la administración de Biden planea emitir en este sentido se dirigen a abordar este desafío crítico, considerando tanto la veracidad de la información como las implicaciones éticas y de seguridad que surgen de su producción acelerada y a menudo engañosa.
La discriminación es otro aspecto que la administración buscará abordar en la regulación de la IA. Los sistemas de IA pueden verse afectados por sesgos, ya sean implícitos o explícitos, lo que puede resultar en tratos injustos y desiguales. En consecuencia, el compromiso de supervisar y mitigar estos sesgos se convierte en una parte integral del plan de regulación de la IA. Esto no solo garantiza una mayor equidad en el uso de la tecnología, sino que también refleja la sensibilidad a las preocupaciones de derechos civiles y sociales que la IA plantea.
Sin embargo, es importante destacar que la administración de Biden enfrenta limitaciones en su capacidad de acción. Cualquier regulación significativa y vinculante relacionada con la IA debe pasar por el Congreso, lo que agrega un nivel adicional de complejidad y desafío.
La polarización en el Congreso entre demócratas y republicanos hace que la aprobación de leyes integrales en este ámbito sea extremadamente improbable en el corto plazo. La administración de Biden se enfrenta a un escenario político complejo en el que equilibrar la necesidad de regulación con la realidad legislativa actual.
En respuesta al anuncio de Biden, la Asociación de Editores de Software (BAS) ha llamado a la creación de un nuevo marco legislativo que establezca salvaguardias específicas para la Inteligencia Artificial. Este llamado refleja la necesidad de una regulación más completa y detallada que garantice un uso ético y seguro de la IA en una variedad de sectores.
Es importante destacar que la regulación de la IA se ha convertido en un campo de competencia a nivel internacional. La Unión Europea, conocida por su liderazgo en la formulación de normativas digitales, tiene como objetivo establecer un marco regulatorio para la IA antes de que finalice el año, con la intención de establecer un estándar que influya en la regulación a nivel mundial. La regulación de la IA se ha convertido en una prioridad en un mundo donde esta tecnología desempeña un papel cada vez más prominente en diversos aspectos de la sociedad y la economía.
*Con información de AFP.