Sam Altman, jefe de OpenAI y creador de ChatGPT, aseguró este viernes que quiere seguir operando en Europa, tras amenazar el miércoles con abandonar la Unión Europea (UE) si la regulación se vuelve demasiado estricta.
“Semana muy productiva de conversaciones en Europa sobre la mejor forma de regular la inteligencia artificial. Estamos felices de seguir operando aquí y evidentemente no tenemos la intención de marcharnos”, escribió en Twitter.
Altman había avisado el miércoles en Londres, en la décima etapa de su gira por cinco continentes, que OpenAI podría “dejar de operar” en la UE si la futura regulación del bloque, en curso de elaboración, le imponía demasiadas limitaciones.
“Intentaremos (adaptarnos), pero hay limitaciones técnicas respecto a lo que es posible”, declaró a la prensa británica.
Las declaraciones no sentaron bien al comisario europeo Thierry Breton, competente en asuntos digitales, quien el jueves las tachó de intento de “chantaje” y afirmó que el objetivo de la regulación es “ayudar a las empresas” con el despliegue de la inteligencia artificial.
Altman tendrá la ocasión de calmar el juego en una conferencia este viernes en la Station F, un centro de start-ups en París.
La intervención del norteamericano forma parte de su gira mundial, para tranquilizar sobre las implicaciones de la inteligencia artificial y abogar por una regulación que no sea demasiado restrictiva para su negocio.
La inteligencia artificial generativa de OpenAI, abierta al gran público a fines de 2022, ha generado una avalancha de temores en cuanto a su posible uso a fines de desinformación, destrucción de empleo y pillaje de derechos de autor.
Después de defender su inteligencia artificial, Altman ahora dice que sí causaría un “daño significativo al mundo”
El CEO de OpenAI, Sam Altman, ha mostrado su preocupación porque su sistema ChatGPT pueda causar “un daño significativo al mundo” y considera que un mal uso de esta tecnología, a falta de una normativa sólida que lo regule, podría tener consecuencias catastróficas.
Así lo ha expresado el director ejecutivo de la compañía creadora de herramientas como Whisper y Dall-E2, que ha comparecido ante el Subcomité de Privacidad, Tecnología y Ley del Comité del Poder Judicial del Senado de Estados Unidos para solicitar a este organismo una regulación en el uso de sistemas como su ‘chatbot’.
Los sistemas de Inteligencia Artificial (IA) generativa son objetivo de críticas por autoridades y usuarios porque actores maliciosos hacen uso de ellos para llevar a cabo campañas de ‘phishing’ o difundir mensajes de odio, entre otras actividades dañinas y delictivas.
Debido a la preocupación que ha generado el mal uso de esta tecnología, el director ejecutivo de la empresa que desarrolla ChatGPT, Sam Altman, ha comparecido ante la cámara alta del Congreso estadounidense para expresar su voluntad de trabajar con legisladores e instituciones a fin a abordar los riesgos que presenta este ‘chatbot’.
Vale la pena recalcar que Altman manifestó ante un panel del Senado de Estados Unidos que regular la Inteligencia Artificial (IA) será fundamental para limitar los riesgos del uso de esta tecnología.
“Creemos que la intervención regulatoria de los gobiernos será crucial para mitigar los riesgos de modelos cada vez más potentes”, estimó el empresario de 38 años, última figura surgida del Silicon Valley.
“Es fundamental que la IA más potente se desarrolle con valores democráticos, lo que significa que el liderazgo de Estados Unidos es determinante”, apuntó Altman al testificar ante el Subcomité Judicial del Senado sobre Privacidad, Tecnología y Derecho.
Los gobiernos de todo el mundo están bajo presión para tomar medidas después del lanzamiento en noviembre del ChatGPT, un robot conversacional que puede generar contenido similar al humano en un instante.
A su turno, el senador Richard Blumenthal, presidente del subcomité, pronunció su comentario de apertura sobre los peligros de la IA, escrito usando ChatGPT y leído por un software entrenado con su voz real.
“Si estuvieras escuchando desde casa, podrías haber pensado que esa voz era mía y las palabras mías, pero de hecho, esa voz no era mía”, dijo.
Las tecnologías de IA “ya no son fantasías de ciencia ficción, son reales y presentes”, enfatizó. “Si esta tecnología sale mal, puede salir muy mal”.
Con información de AFP