La poderosa empresa OpenAI, desarrolladora de Chat GPT, atraviesa uno de sus mejores momentos debido a las actualizaciones que ha tenido su más reciente sistema, el cual permite mantener conversaciones fluidas entre el usuario y el boot.
Sin embargo, al interior de la corporación, hay quienes se han atrevido a cuestionar la forma como la multinacional ha desarrollado sus productos y el riesgo que existe para la humanidad debido al uso de sus sistemas de información, datos y análisis.
Debido a esto, se conoció que otro directivo de OpenAI abandonó la empresa emergente estadounidense, dejando sin líder al equipo responsable de la seguridad de una posible superinteligencia artificial (IA), mientras la casa matriz de ChatGPT enfrenta un creciente número de críticas.
Jan Leike explicó este viernes 17 de mayo, en la red social X, que renunció por desacuerdos fundamentales con la alta dirección sobre las prioridades de la empresa, en una disyuntiva entre innovación o seguridad.
“Hemos llegado a un punto de ruptura”, dijo el ingeniero encargado del grupo responsable de la “Superalineación”, es decir, garantizar que una futura “IA general”, aquella que logre ser tan inteligente como los humanos, esté alineada con los valores de la sociedad.
“Me uní porque pensé que OpenAI sería el mejor lugar del mundo para realizar esta investigación. Sin embargo, he estado en desacuerdo con el liderazgo de OpenAI sobre las prioridades centrales de la compañía durante bastante tiempo, hasta que finalmente llegamos a un punto de ruptura”, explicó Leike en su perfil en la red social X, antes Twitter.
El alto ejecutivo indicó que OpenAI habría puesto trabas a las investigaciones que él, junto a su equipo, venían desarrollando para garantizar la seguridad antes los sistemas de inteligencia artificial desarrollados por la compañía.
“Durante los últimos meses mi equipo ha estado navegando contra el viento. A veces estábamos luchando por la informática y cada vez era más difícil realizar esta investigación crucial. Construir máquinas más inteligentes que los humanos es una tarea intrínsecamente peligrosa. OpenAI asume una enorme responsabilidad en nombre de toda la humanidad”, reveló el ahora exempleado de OpenaAI.
“Dejar este trabajo ha sido una de las cosas más difíciles que he hecho en mi vida, porque necesitamos urgentemente descubrir cómo dirigir y controlar sistemas de inteligencia artificial mucho más inteligentes que nosotros”, agregó.
Según trascendió, el equipo que lideraba Leike se disolverá y sus miembros se integrarán en los demás grupos de investigación de OpenAI que trabajan en la seguridad de la IA, según Bloomberg.
Leike instó finalmente a todos los empleados de la start-up a que “actúen con la gravedad” que justifica lo que están construyendo.
Sam Altman, cofundador y consejero delegado de la empresa con sede en San Francisco, se mostró “muy triste por la marcha” de Leike. “Tiene razón, aún nos queda mucho por hacer (por la investigación sobre alineación y seguridad), y estamos decididos a hacerlo”, añadió.
El equipo de “Superalineación” también estaba dirigido por Ilya Sutskever, cofundador de OpenAI y quien anunció su salida el martes pasado.
Con ChatGPT, OpenAI lanzó la revolución de la IA generativa, capaz de producir contenidos a partir de una simple petición en lenguaje cotidiano, que ha entusiasmado a Silicon Valley, pero que a la vez preocupa por su seguridad y el uso de los datos a muchos analistas y reguladores, desde Estados Unidos hasta Europa.
OpenAI presentó esta semana una nueva versión de ese chatbot, que ahora puede mantener conversaciones orales fluidas con sus usuarios, un paso más hacia asistentes de IA cada vez más personales y potentes.