El logotipo de OpenAI se ve en la pantalla con el sitio web de ChatGPT en el móvil, el 8 de enero de 2023 en Bruselas, Bélgica. (Ilustración fotográfica de Jonathan Raa/NurPhoto a través de Getty Images)
Los modelos de lenguaje son programas que permiten generar, según el caso, texto, imágenes o sonido a partir de una instrucción en lenguaje corriente, como el propio ChatGPT. | Foto: NurPhoto via Getty Images

Tecnología

OpenAI dará acceso al Gobierno estadounidense a sus nuevos modelos de lenguaje de IA ¿Por qué?

El acuerdo marcaría una etapa importante para ayudar a orientar el futuro de la IA “hacia un abordaje responsable”.

30 de agosto de 2024

OpenAI, la empresa que lanzó el programa de inteligencia artificial (IA) generativa ChatGPT, alcanzó un acuerdo con el Gobierno estadounidense, al que dará acceso a sus nuevos modelos de lenguaje previo a lanzarlos para identificar posibles riesgos.

Los modelos de lenguaje son programas que permiten generar, según el caso, texto, imágenes o sonido a partir de una instrucción en lenguaje corriente, como el propio ChatGPT.

Pero la compañía responsable de ChatGPT no fue la unica compañía desarrolladora de IA en establecer un acuerdo con el gobierno de Estados Unidos, pues el AI Safety Institute (Instituto de Seguridad para la Inteligencia Artificial), creado en 2023 por el gobierno de Joe Biden y el cual se encarga de desarrollar las pruebas, evaluaciones y directrices para la innovación responsable de la IA; concluyó un acuerdo similar con un competidor de OpenAI, Anthropic, según un comunicado publicado este jueves 29 de agosto.

Joe Biden Presidente de Estados Unidos
Joe Biden, Presidente de los Estados Unidos de América. | Foto: Getty Images

Las dos start-ups se comprometieron a colaborar con el instituto para “evaluar las capacidades (de los modelos) y los riesgos de seguridad” que puedan plantear, así como a trabajar en “métodos para gestionar estos riesgos”, indicó el organismo.

“La seguridad es esencial para impulsar la innovación tecnológica de vanguardia (…) Estos acuerdos son solo un comienzo, pero marcan una etapa importante para ayudar a orientar el futuro de la IA hacia un abordaje responsable”, resumió Elizabeth Kelly, directora del instituto, citada en el comunicado.

El avance de estos modelos de lenguaje (LLM) aumenta sus capacidades y los riesgos asociados, en particular de uso malintencionado. “Una IA segura y confiable es determinante para que esta tecnología pueda tener un impacto positivo. Esto refuerza nuestra capacidad para identificar y mitigar los riesgos, avanzando en el desarrollo responsable de la IA. Estamos orgullosos de contribuir a este trabajo vital, estableciendo nuevos puntos de referencia para una IA segura y digna de confianza”, explicó por su parte a la Agencia de Prensa Francesa (AFP) Jack Clark, confundador de Anthropic.

Por otro lado, Jason Kwon, Director de Estrategia de OpenAI, señaló en un comunicado: “apoyamos firmemente la misión del US AI Safety Institute y esperamos trabajar juntos para informar sobre las mejores prácticas y normas de seguridad para los modelos de IA”.

Las discusiones sobre inteligencia artificial han venido en auge, en especial, desde que plataformas como ChatGPT salieron al mercado.
Las discusiones sobre inteligencia artificial han venido en auge, en especial, desde que plataformas como ChatGPT salieron al mercado. | Foto: OlimpIA

Y agregó: “creemos que el instituto tiene un papel fundamental que desempeñar en la definición del liderazgo de EE.UU. en el desarrollo responsable de la inteligencia artificial y esperamos que nuestro trabajo conjunto ofrezca un marco en el que pueda basarse el resto del mundo”.

Cabe recordar que los primeros acuerdos de este tipo llegan en un momento en el que las empresas se enfrentan al escrutinio regulatorio sobre el uso seguro y ético de las tecnologías de inteligencia artificial. Los legisladores de California están listos para votar sobre un proyecto de ley esta semana para regular ampliamente cómo se desarrolla e implementa la IA en el estado.

Con información de AFP*