Tecnología
Expertos descubren un nuevo riesgo de “extinción” para la humanidad, temen no poder detener la amenaza
Alertan de la posibilidad de que un algoritmo pueda adueñarse de actividades esenciales para una sociedad, como el suministro de energía o la defensa.
Los líderes mundiales deberían dedicarse a reducir “el riesgo de extinción” que supone la inteligencia artificial, pidió este martes un grupo de industriales y expertos del sector tecnológico.
El comunicado, de apenas una línea, fue firmado por docenas de especialistas, incluido Sam Altman, cuya empresa OpenAI creó el robot conversacional ChatGPT el año pasado, que permite crear obras de arte o literarias, ensayos y mantener un diálogo con un ser humano sobre cualquier tema.
La inteligencia artificial debería ser “una prioridad mundial junto a otros riesgos para la sociedad como las pandemias o la guerra nuclear”, explicó el texto.
Los críticos de la inteligencia artificial alertan de la posibilidad de que un algoritmo pueda adueñarse de actividades esenciales para una sociedad, como el suministro de energía o la defensa.
Lo más leído
Además, los robots conversacionales y otras aplicaciones de la IA podrían provocar la pérdida de millones de puestos de trabajo.
Este comunicado no es el primero que firman los expertos del sector, que al mismo tiempo que invierten y atraen miles de millones de dólares en la IA, se declaran en público intimidados por las posibilidades de esta nueva tecnología.
Hace dos meses otras personalidades, como el multimillonario Elon Musk, firmaron otra carta pública en la que pedían una pausa en el desarrollo de la IA hasta poder garantizar su total seguridad.
Creador de ChatGPT lanza una nueva amenaza en medio de los temores por su inteligencia artificial
Actualmente, la Unión Europea (UE) se encuentra estudiando a profundidad la implementación de una reglamentación para controlar el desarrollo de las tecnologías impulsadas por inteligencias artificiales (IA). En el marco de esa iniciativa, Google ha sostenido una serie de conversaciones con la entidad con el propósito de definir normas voluntarias para las IA.
La apuesta del ‘gigante de la internet’ es lograr acuerdos sobre ciertas normas o medidas antes de que entre en vigor de una legislación específica para esa tecnología. En esa línea, Thierry Breton, comisario europeo de mercado interno, y Sundar Pichai, CEO de Google, han reconocido que es conveniente llegar a acuerdos previamente a que la nueva normativa sea aplicada.
“Acordamos que no podemos darnos el lujo de esperar a que la ley de AI entre en vigor, y trabajar junto con todos los desarrolladores para introducir un pacto voluntario”, dijo Breton a la prensa europea después de conversar con el director general de Google, Sundar Pichai.
Sin embargo, algunas figuras en la industria tecnológica no tienen una posición tan entusiasta ante el proceso de construcción de una normativa para la inteligencia artificial.
Sam Altman, el CEO de OpenAI, ha manifestado que prefiere dejar de operar en la Unión Europea en caso de que en ese territorio se establezcan leyes que sean “demasiado autoritarias”. Así lo manifestó el director de la compañía creadora de la IA de ChatGPT en el marco de una conferencia que ofreció en el University College London.
Así las cosas, el chatbot y otros servicios que cuenten con la potente inteligencia artificial denominada GPT-4, no estarían disponibles en el territorio europeo.
No obstante, es importante resaltar que Altman afirmó haber tenido una reunión con funcionarios de la Unión Europea para discutir detalles sobre la ley a la IA que se está construyendo, pero estos encuentros no habrían sido fructíferos para la discusión sobre la necesidad de controlar la evolución de las inteligencias artificiales.
De hecho, el CEO de OpenAI afirmó que la compañía tenía varios reparos sobre la forma en que sería redactada dicha normativa.
Cabe recordar que en este momento, la Unión Europea considera de “alto riesgo” a los sistemas como ChatGPT, por ello la nueva normativa de Europa exige a las compañías ofrecer servicios con ese tipo de sistemas a cumplir con una serie de exigencias adicionales.
Entre los requisitos está la obligación de implementar acciones para que siempre se informe que los contenidos han sido generados por una IA, además de diseñar acciones para impedir la producción de contenidos ilegales o mentirosos.
Pese a que Sam Altman no está de acuerdo con las normas que propone la Unión Europea, es importante recordar que el CEO de OpenAI sí llegó a reconocer que la inteligencia artificial sí podría causar un “daño significativo al mundo” y por ello no tiene una oposición total ante una regulación para esa tecnología.
Durante sesión ante el Subcomité de Privacidad, Tecnología y Ley del Comité del Poder Judicial del Senado de Estados Unidos, Altman manifestó estar preocupado por qué ChatGPT, pueda causar serios daños a causa de un mal uso de esa tecnología, a falta de una normativa sólida que lo regule.
“Creemos que es esencial desarrollar regulaciones que incentiven la seguridad de la IA y, al mismo tiempo, garantizar que las personas puedan acceder a los muchos beneficios de la tecnología”, declaró Altman.
De igual manera, El CEO de OpenAI aseguró que la empresa ha lanzado iniciativas para hacer más segura esta IA, como la creación de un programa que contribuye a usuarios que detectan errores en su sistema, así como otro de subvenciones que financiará a aquellos que lleven a cabo investigaciones de seguridad.
Con información de AFP.