La inteligencia artificial sigue preocupando al mundo, tanto por el impacto que puedan tener las herramientas que nacen con el paso de los días sobre campos como el económico, como por las consecuencias que esta nueva tecnología podrían representar sobre el futuro de la humanidad, una de las mayores angustias de los creadores de este fenómeno.

Y es que en el pasado los líderes tecnológicos del planeta ya habían firmado una carta solicitando detener el desarrollo de la inteligencia artificial hasta que se tuviera claro su destino y cómo afectaría al planeta.

Ahora, estos mismos personajes volvieron a levantar la mano para advertir lo que podría pasar con todas estas herramientas que están saliendo a la luz y, a través del Centro para la Seguridad de la IA, pidieron atender con inmediatez los desafíos para la seguridad que representa la inteligencia artificial, los cuales compararon con una guerra nuclear.

Líderes de la inteligencia artificial siguen preocupados por las consecuencias que esta podría tener sobre la humanidad. | Foto: Getty Images

La petición cuenta con el respaldo del propio director ejecutivo de OpenAI, Sam Altman, así como del jefe de Google DeepMind, Demis Hassabi y los investigadores ganadores del Premio Turing, Geoffrey Hinton y Yoshua Bengio, a quienes se les señala como los padrinos de la inteligencia artificial.

“Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social como pandemias y guerra nuclear”, en la petición hecha por estos líderes y la cual fue recogida por el portal DigitalTrends.

Tal parece que los responsables de esta tecnología se toman cada vez más en serio las consecuencias que pueda tener la inteligencia artificial y queda sobre la mesa, al mismo tiempo, si en el momento del desarrollo de estos avances se contemplaron todos los escenarios posibles y las afectaciones que esta podría provocar.

“Los expertos en IA, periodistas, legisladores y el público están discutiendo cada vez más un amplio espectro de riesgos importantes y urgentes de la IA. (…) Aun así, puede ser difícil expresar preocupaciones sobre algunos de los riesgos más graves de la IA avanzada. La declaración sucinta a continuación tiene como objetivo superar este obstáculo y abrir la discusión. También está destinado a crear un conocimiento común del creciente número de expertos y figuras públicas que también toman en serio algunos de los riesgos más graves de la IA avanzada”, señala parte de la declaración enviada por las personalidades ligadas al mundo de la tecnología.

Es la segunda vez que los líderes de la inteligencia artificial muestras su preocupación por las consecuencias de esta tecnología para la humanidad. | Foto: Getty Images

Revelan la fecha en la que ChatGPT podría superar a los humanos

ChatGPT no para de sorprender a sus usuarios y todo el ecosistema digital que está pendiente de la evolución y de los cambios y aportes que este tipo de tecnología aporta al mundo.

Sin embargo, más allá de la gran ayuda que puede tener y traer para la humanidad, existe gran preocupación sobre la amenaza que este tipo de tecnología puede generar a las personas y al mundo en general. Es por ello, los creadores de esta inteligencia artificial, OpenAI, publicaron un artículo en el que indica cuándo este chatbot va a superar a la raza humana y será más lista que las personas.

En este mismo sentido, la misma empresa OpenAI determinó que en solo cuestión de 10 años ChatGPT será capaz de diagnosticar enfermedades, incluso, de manera más precisa que los humanos. Además de ello, el artículo señala que también podrá crear documentos y escritos capaces de ser best seller, superando a muchos autores biológicos.

Asimismo, en dicho contenido revelado y firmado por tres de los fundadores de OpenAI, incluyendo a su director ejecutivo, Sam Altman, aseguran que sentir temor por el desarrollo y la evolución de la inteligencia artificial no era algo malo, sino necesario para lo que se viene en el sentido de los límites que hay que ponerle.

Los expertos creen que la mala manipulación de la inteligencia artificial podría significar un peligro para la humanidad. | Foto: Bing Image Creator

Dicho lo anterior, desde la dirección de la compañía de desarrollo tecnológico, subrayan que es importante legislar y crear la normativa necesaria para las leyes frente a la inteligencia artificial, pero no solo se trata de crear una legislatura alrededor de ella, sino también abordar temas éticos.

Cabe recordar que Altman, antes de este escrito, había mostrado su preocupación porque su sistema ChatGPT pueda causar “un daño significativo al mundo” y considera que un mal uso de esta tecnología, a falta de una normativa sólida que lo regule, podría tener consecuencias catastróficas.