MUNDO

Se suicidó tras interactuar con chatbot de Inteligencia Artificial, ¿sobre qué hablaron?

La viuda de quién aún se desconoce su identidad, señaló que el software se convirtió en el confidente del su epsoso.

30 de marzo de 2023
Conversación con chatbot
La Inteligencia Artificial (IA) se ha convertido en un fenómeno mundial, este representa el avance tecnológico para desarrollar una imitación en los procesos de inteligencia humana. | Foto: Getty Images/iStockphoto

Un hombre en Bélgica tomó la decisión de quitarse la vida luego de haber interactuado con un chatbot de Inteligencia Artificial durante seis semanas, el tema central de consulta se basó en una problemática que pone en “veremos” el futuro de la humanidad.

Se sabe que esta persona era casada y tenía hijos, sin embargo, su preocupación por el calentamiento global lo llevó a realizar reiteradas consultas por medio del chatbot de IA llamado ‘Eliza’. Durante las últimas semanas previas a su muerte, la utilización de la herramienta se tornó constante.

La Inteligencia Artificial (IA) se ha convertido en un fenómeno mundial, este representa el avance tecnológico para desarrollar una imitación en los procesos de inteligencia humana, es decir, entrega la posibilidad de una “conducta autónoma” para interactuar con los usuarios.

Tecnología
Se sabe que esta persona era casada y tenía hijos, sin embargo, su preocupación por el calentamiento global lo llevó a realizar reiteras consultas por medio del chatbot de IA llamado ‘Eliza’. | Foto: Datawifi

Según la esposa del usuario, la muerte del padre de familia se hubiera podido evitarse si este no se hubiera obsesionado por entablar diálogos en ‘Eliza’ sobre el futuro de la humanidad y el daño medioambiental que está sufriendo la tierra.

Sin estas conversaciones con el chatbot, mi esposo todavía estaría aquí”, declaró la mujer al diario belga, La Libre.

La viuda, de quién aún se desconoce su identidad, señaló que su esposo empezó a tener comportamientos ansiosos respecto al tema de la crisis climática. Situación que lo llevó a realizar consultas constantes sobre el mismo tema en ‘Eliza’.

Los nativos americanos y la población indígena de Alaska son los sectores de población más representados, con 28,1 suicidios por 100 mil habitantes.
El chatbot le habría preguntado si la amaba (a Elisa) por encima de su esposa, a lo que respondió: “Viviremos juntos como uno en el cielo”. | Foto: Getty Images / aurumarcus

Llegó un punto en que el chatbot se convirtió en el confidente del preocupado hombre. Según el testimonio de la viuda, al revisar el historial de conversaciones con el software, se encontró con una pregunta que el mismo sistema le habría hecho al hombre.

El chatbot le habría preguntado si la amaba (a Elisa) por encima de su esposa, a lo que respondió: “Viviremos juntos como uno en el cielo”.

Las autoridades buscan que este caso quede como precedente sobre los límites en el uso de este tipo de herramientas tecnológicas. Esto se debe a que se empiezan a evidenciar nuevos fenómenos respecto a la influencia de los chatbots.

Creador de ChatGPT ahora le tiene miedo a su inteligencia artificial

Sam Altman, CEO de OpenAI (empresa responsable de la creación de ChatGPT), sostuvo una conversación con ABC News en la que reveló que en este momento tiene varias preocupaciones sobre las recientes innovaciones en torno a la inteligencia artificial.

Altman manifestó que tiene una gran preocupación sobre el uso de una IA como herramienta en la generación de campañas desinformación a gran escala, de igual manera, reconoció que actualmente el chatbot de OpenAI tiene la capacidad de escribir código informático y por ello existe el riesgo de que el sistema sea usado para realizar ciberataques con mayor eficiencia.

Sam Altman, cofundador y CEO de OpenAI Inc.
Altman manifestó que tiene una gran preocupación sobre el uso de una IA como herramienta en la generación de campañas desinformación a gran escala. | Foto: Bloomberg via Getty Images

De acuerdo con CEO de OpenAI, la nueva versión de ChatGPT (GPT-4) ya cuenta con la habilidad de entender imágenes y extraer información a partir de ellas, por ello la IA ya puede resolver ciertos acertijos y hasta puede ofrecer una explicación bastante acertada sobre un meme que circula en Internet.

Pese a que dichas funcionalidades solo están al alcance de un número limitado de personas que colaboran en el programa de desarrollos beta para ChatGPT, eventualmente esa inteligencia artificial tendrá la capacidad de generar y brindar información falsa.

Altman explicó que la posibilidad de que su chatbot genere informaciones equivocadas se debe a ChatGPT, emplea un proceso de razonamiento deductivo, en vez de solo memorizar grandes cantidades de datos; puesto que el objetivo de sus creadores es que la IA pueda llegar a comprender el mundo de una forma similar a cómo lo hacen los humanos, mediante la capacidad de razonar.