Tecnología
Revelan la fecha en la que ChatGPT podría superar a los humanos
Los mismos creadores de la inteligencia artificial advierten de los riesgos de esta.
ChatGPT no para de sorprender a sus usuarios y todo el ecosistema digital que está pendiente de la evolución y de los cambios y aportes que este tipo de tecnología aporta al mundo.
Sin embargo, más allá de la gran ayuda que puede tener y traer para la humanidad, existe gran preocupación sobre la amenaza que este tipo de tecnología puede generar a las personas y al mundo en general. Es por ello, los creadores de esta inteligencia artificial, OpenAI, publicaron un artículo en el que indica cuándo este chatbot va a superar a la raza humana y será más lista que las personas.
En este mismo sentido, la misma empresa OpenAI determinó que en solo cuestión de 10 años ChatGPT será capaz de diagnosticar enfermedades, incluso, de manera más precisa que los humanos. Además de ello, el artículo señala que también podrá crear documentos y escritos capaces de ser best seller, superando a muchos autores biológicos.
Asimismo, en dicho contenido revelado y firmado por tres de los fundadores de OpenAI, incluyendo a su director ejecutivo, Sam Altman, aseguran que sentir temor por el desarrollo y la evolución de la inteligencia artificial no era algo malo, sino necesario para lo que se viene en el sentido de los límites que hay que ponerle.
Tendencias
Dicho lo anterior, desde la dirección de la compañía de desarrollo tecnológico, subrayan que es importante legislar y crear la normativa necesaria para las leyes frente a la inteligencia artificial, pero no solo se trata de crear una legislatura alrededor de ella, sino también abordar temas éticos.
Cabe recordar que Altman, antes de este escrito, había mostrado su preocupación porque su sistema ChatGPT pueda causar “un daño significativo al mundo” y considera que un mal uso de esta tecnología, a falta de una normativa sólida que lo regule, podría tener consecuencias catastróficas.
La inteligencia artificial supone un riesgo de “extinción” para la humanidad, señalan expertos
Los líderes mundiales deberían dedicarse a reducir “el riesgo de extinción” que supone la inteligencia artificial, pidió este martes un grupo de industriales y expertos del sector tecnológico.
El comunicado, de apenas una línea, fue firmado por docenas de especialistas, incluido Sam Altman, cuya empresa OpenAI creó el robot conversacional ChatGPT el año pasado, que permite crear obras de arte o literarias, ensayos y mantener un diálogo con un ser humano sobre cualquier tema.
La inteligencia artificial debería ser “una prioridad mundial junto a otros riesgos para la sociedad como las pandemias o la guerra nuclear”, explicó el texto.
Los críticos de la inteligencia artificial alertan de la posibilidad de que un algoritmo pueda adueñarse de actividades esenciales para una sociedad, como el suministro de energía o la defensa.
Además, los robots conversacionales y otras aplicaciones de la IA podrían provocar la pérdida de millones de puestos de trabajo.
Este comunicado no es el primero que firman los expertos del sector, que al mismo tiempo que invierten y atraen miles de millones de dólares en la IA, se declaran en público intimidados por las posibilidades de esta nueva tecnología.
Hace dos meses otras personalidades, como el multimillonario Elon Musk, firmaron otra carta pública en la que pedían una pausa en el desarrollo de la IA hasta poder garantizar su total seguridad.
*Con información de AFP.