Tecnología
Creador de ChatGPT lanza una nueva amenaza en medio de los temores por su inteligencia artificial
Autoridades europeas consideran que los sistemas como ChatGPT son de “alto riesgo”.
Actualmente, la Unión Europea (UE) se encuentra estudiando a profundidad la implementación de una reglamentación para controlar el desarrollo de las tecnologías impulsadas por inteligencias artificiales (IA). En el marco de esa iniciativa, Google ha sostenido una serie de conversaciones con la entidad con el propósito de definir normas voluntarias para las IA.
La apuesta del ‘gigante de la internet’ es lograr acuerdos sobre ciertas normas o medidas antes de que entre en vigor de una legislación específica para esa tecnología. En esa línea, Thierry Breton, comisario europeo de mercado interno, y Sundar Pichai, CEO de Google, han reconocido que es conveniente llegar a acuerdos previamente a que la nueva normativa sea aplicada.
“Acordamos que no podemos darnos el lujo de esperar a que la ley de AI entre en vigor, y trabajar junto con todos los desarrolladores para introducir un pacto voluntario”, dijo Breton a la prensa europea después de conversar con el director general de Google, Sundar Pichai.
Sin embargo, algunas figuras en la industria tecnológica no tienen una posición tan entusiasta ante el proceso de construcción de una normativa para la inteligencia artificial.
Sam Altman, el CEO de OpenAI, ha manifestado que prefiere dejar de operar en la Unión Europea en caso de que en ese territorio se establezcan leyes que sean “demasiado autoritarias”. Así lo manifestó el director de la compañía creadora de la IA de ChatGPT en el marco de una conferencia que ofreció en el University College London.
Así las cosas, el chatbot y otros servicios que cuenten con la potente inteligencia artificial denominada GPT-4 no estarían disponibles en el territorio europeo.
Sin embargo, es importante resaltar que Altman afirmó haber tenido una reunión con funcionarios de la Unión Europea para discutir detalles sobre la ley a la IA que se está construyendo, pero estos encuentros no habrían sido fructíferos para la discusión sobre la necesidad de controlar la evolución de las inteligencias artificiales.
De hecho, el CEO de OpenAI afirmó que la compañía tenía varios reparos sobre la forma en que sería redactada dicha normativa.
Cabe recordar que en este momento la Unión Europea considera de “alto riesgo” a los sistemas como ChatGPT son de “alto riesgo”, por ello la nueva normativa de Europa exige a las compañías ofrecer servicios con ese tipo de sistemas a cumplir con una serie de exigencias adicionales.
Entre los requisitos está la obligación de implementar acciones para que siempre se informe que los contenidos han sido generados por una IA, además de diseñar acciones para impedir la producción de contenidos ilegales o mentirosos.
Pese a que Sam Altman no está de acuerdo con las normas que propone la Unión Europea, es importante recordar que el CEO de OpenAI sí llegó a reconocer que la inteligencia artificial sí podría causar un “daño significativo al mundo” y por ello no tiene una oposición total ante una regulación para esa tecnología.
Durante sesión ante el Subcomité de Privacidad, Tecnología y Ley del Comité del Poder Judicial del Senado de Estados Unidos, Altman manifestó estar preocupado por qué ChatGPT pueda causar serios daños a causa de un mal uso de esa tecnología, a falta de una normativa sólida que lo regule.
“Creemos que es esencial desarrollar regulaciones que incentiven la seguridad de la IA y, al mismo tiempo, garantizar que las personas puedan acceder a los muchos beneficios de la tecnología”, declaró Altman.
De igual manera, El CEO de OpenAI aseguró que la empresa ha lanzado iniciativas para hacer más segura esta IA, como la creación de un programa que contribuye a usuarios que detectan errores en su sistema, así como otro de subvenciones que financiará a aquellos que lleven a cabo investigaciones de seguridad.