Tecnología

Elon Musk y cientos de expertos están preocupados por la inteligencia artificial, piden una pausa

Entre sus peticiones está el desarrollo de técnicas que ayuden a distinguir entre lo real y lo artificial.

29 de marzo de 2023
Elon Musk
Elon Musk ha expuesto sus reparos al desarrollo de inteligencias artificiales (IA). | Foto: Bloomberg via Getty Images

Elon Musk y cientos de expertos mundiales firmaron el miércoles un llamado a hacer una pausa de seis meses en la investigación sobre inteligencias artificiales (IA) más potentes que ChatGPT 4, el modelo de OpenAI lanzado en marzo, al advertir de “grandes riesgos para la humanidad”.

En la petición publicada en el sitio futureoflife.org, piden una moratoria hasta que se establezcan sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, técnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la “dramática perturbación económica y política (especialmente para la democracia) que causará la IA”.

La firman personalidades que han expresado sus temores sobre una IA incontrolable que supere a los humanos, como Musk, dueño de Twitter y fundador de SpaceX y Tesla, y el historiador Yuval Noah Hariri.

El director de Open AI, que diseñó ChatGPT, Sam Altman, ha reconocido tener “un poco de miedo” de que su creación se utilice para “desinformación a gran escala o ciberataques”.

Sam Altman, cofundador y CEO de OpenAI Inc.
Sam Altman, cofundador y CEO de OpenAI Inc. | Foto: Bloomberg via Getty Images

“La empresa necesita tiempo para adaptarse”, declaró recientemente a ABCNews.

“En los últimos meses hemos visto cómo los laboratorios de IA se han lanzado a una carrera descontrolada para desarrollar y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable”, afirman.

“¿Debemos permitir a las máquinas inundar nuestros canales de información con propaganda y mentiras? ¿Debemos automatizar todos los trabajos, incluidos los gratificantes? (...) ¿Debemos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deben delegarse en líderes tecnológicos no electos”, concluyeron.

Entre los firmantes figuran el cofundador de Apple, Steve Wozniak, miembros del laboratorio de AI DeepMind de Google, el director de Stability AI, Emad Mostaque, así como expertos y académicos estadounidenses de IA e ingenieros ejecutivos de Microsoft, empresa aliada de OpenAI.

Aterrador: inteligencia artificial se disculpó por “matar a la humanidad”
La rápida evolución de la inteligencia artificial ha preocupado a los expertos. | Foto: Getty Images

Creador de ChatGPT revela que ahora le tiene miedo a su inteligencia artificial

Sam Altman, CEO de OpenAI (empresa responsable de la creación de ChatGPT), sostuvo una conversación con ABC News en la que reveló que en este momento tiene varias preocupaciones sobre las recientes innovaciones en torno a la inteligencia artificial.

Altman manifestó que tiene una gran preocupación sobre el uso de una IA como herramienta en la generación de campañas desinformación a gran escala, de igual manera, reconoció que actualmente el chatbot de OpenAI tiene la capacidad de escribir código informático y por ello existe el riesgo de que el sistema sea usado para realizar ciberataques con mayor eficiencia.

De acuerdo con CEO de OpenAI, la nueva versión de ChatGPT (GPT-4) ya cuenta con la habilidad de entender imágenes y extraer información a partir de ellas, por ello la IA ya puede resolver ciertos acertijos y hasta puede ofrecer una explicación bastante acertada sobre un meme que circula en Internet.

Pese a que dichas funcionalidades solo están al alcance de un número limitado de personas que colaboran en el programa de desarrollos beta para ChatGPT, eventualmente esa inteligencia artificial tendrá la capacidad de generar y brindar información falsa.

ChatGPT Open AI
El propio creador de ChatGPT reveló algunos peligros de la inteligencia artificial. | Foto: SOPA Images/LightRocket via Gett

Altman explicó que la posibilidad de que su chatbot genere informaciones equivocadas se debe a ChatGPT, emplea un proceso de razonamiento deductivo, en vez de solo memorizar grandes cantidades de datos; puesto que el objetivo de sus creadores es que la IA pueda llegar a comprender el mundo de una forma similar a cómo lo hacen los humanos, mediante la capacidad de razonar.

No obstante, Sam Altman también admitió que sí existe un peligro real en cuanto a chatbots como ChatGPT puedan ser utilizados con fines negativos, debido a que OpenAI no es la única empresa que está desarrollando ese tipo de tecnología y muy seguramente en el futuro aparecerán otras compañías que no establecerán los mismos límites para sus inteligencias artificiales.

En ese sentido, Altman reconoció en su entrevista con ABC News que es necesario que la especie humana le tenga miedo a las IA, porque así siempre tendrá una consciencia sobre cuál es la mejor manera de usar y sobre todo limitar esas tecnologías.