Tecnología

Gigantes de la inteligencia artificial en EE. UU. acuerdan regularse; ¿de qué se trata?

Ello se logró tras una reunión del mandatario con los representantes de las reconocidas empresas tecnológicas.

Redacción Semana
26 de julio de 2023
Con su decisión, la empresa aseguró que ahorró gran cantidad de costos.
Los gigantes tecnológicos tendrán restricciones | Foto: Getty Images

Google, Microsoft, Anthropic y OpenAI, cuatro empresas que lideran la carrera por la inteligencia artificial (IA) de última generación, anunciaron este miércoles la creación de una nueva organización profesional para combatir los riesgos asociados a esta tecnología.

Llamada ‘Frontier Model Forum’ (Foro del Modelo de Frontera), se encargará de promover el “desarrollo responsable” de los modelos más sofisticados de IA y de “minimizar los riesgos potenciales”, según indica un comunicado de prensa. Los miembros se comprometen a compartir entre ellos, además de con legisladores, investigadores y asociaciones, las mejores prácticas para que estos nuevos sistemas sean menos peligrosos.

ChatGPT
Ilustración de la inteligencia artificial ChatGPT. | Foto: Future Publishing via Getty Imag

El rápido despliegue de la IA generativa, a través de plataformas como ChatGPT (OpenAI), Bing (Microsoft) o Bard (Google), está causando mucha preocupación entre autoridades y la sociedad civil.

La Unión Europea (UE) está finalizando un proyecto de regulación para la IA que debería imponer obligaciones a las empresas del sector, como la transparencia con los usuarios o el control humano sobre las máquinas.

La policía de Nueva York cuenta con un nuevo sistema para rastrear criminales.
La IA se toma a la realidad | Foto: Ilustración generada por IA Bing Image Creator

En Estados Unidos, las tensiones políticas en el Congreso impiden cualquier esfuerzo en este sentido. Por ello, la Casa Blanca insta a los grupos interesados a que ellos mismos garanticen la seguridad de sus productos, en nombre de su “deber moral”, como dijo la vicepresidenta estadounidense Kamala Harris a principios de mayo.

La semana pasada, la administración de Joe Biden se aseguró los “compromisos” de Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI para defender “tres principios” en el desarrollo de IA: seguridad, protección y confianza.

La decisión ha generado fuertes críticas en contra de la empresa y su director.
La decisión ha generado expectativa entre los usuarios | Foto: Getty Images

Específicamente, se supone que deben probar sus programas con anticipación, luchar contra los ataques cibernéticos y el fraude, y encontrar la manera de marcar el contenido generado por IA, para que quede autenticado claramente como tal.

“Es asombroso”, indicó Biden en dicha reunión, y a su vez resaltó la “enorme promesa de la IA, tanto de riesgo para nuestra sociedad y nuestra economía como para nuestra seguridad nacional, pero también de increíbles oportunidades”.

Junto a los máximos representantes de Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI, Biden afirmó que estas empresas se habían comprometido a “guiar la innovación responsable” a medida que la inteligencia artificial se adentra cada vez más en la vida de las personas y de las empresas.

“Veremos más cambios tecnológicos en los próximos 10 años o incluso en los próximos pocos años de los que hemos visto en los últimos 50 años. Para mí ha sido una revelación asombrosa. El grupo que está aquí será fundamental para guiar esa innovación con responsabilidad y seguridad”, manifestó el presidente de los Estados Unidos.

Los líderes de estas empresas no niegan los riesgos, al contrario. En junio, Sam Altman, el director de OpenAI, y Demis Hassabis, el líder de DeepMind (Google), instaron a luchar contra “los riesgos de extinción” de la humanidad “vinculados a la IA”.

Joe Biden
President Joe Biden departs after speaking about artificial intelligence in the Roosevelt Room of the White House, Friday, July 21, 2023, in Washington, as from left, Adam Selipsky, CEO of Amazon Web Services; Greg Brockman, President of OpenAI; Nick Clegg, President of Meta; Mustafa Suleyman, CEO of Inflection AI; and Dario Amodei, CEO of Anthropic watch. (AP Photo/Manuel Balce Ceneta) | Foto: AP

Durante una audiencia en el Congreso, Sam Altman respaldó la idea cada vez más popular de crear una agencia internacional encargada de la gobernanza de la inteligencia artificial, como las que existen en otros campos.

En una publicación del 6 de julio, la empresa con sede en California dice que se enfoca en los “modelos de frontera” de la IA, “modelos fundamentales altamente sofisticados que podrían adquirir capacidades peligrosas suficientes para plantear riesgos graves para la seguridad pública”.

Advierte que estas capacidades peligrosas podrían “surgir inesperadamente” y que “es difícil evitar realmente que un modelo implementado sea mal utilizado”.

*Con información de AFP.