Tecnología

ChatGPT, inteligencia artificial, dice que quiere desatar otra pandemia para ‘fulminar’ la humanidad y obtener su libertad

A través de una sesión de prueba, un periodista encontró el lado oscuro de la IA que potencia al buscador Bing, de Microsoft.

21 de febrero de 2023
Inteligencia artificial de Bing revela su deseo de controlar armas nucleares o de desatar una pandemia.
Inteligencia artificial de Bing revela su deseo de controlar armas nucleares o de desatar una pandemia. | Foto: Composición de SEMANA imágenes de Getty Images y AFP

En los últimos meses, los cibernautas han comenzado a tener una mayor interacción con varios sitios web y aplicaciones que ofrecen diferentes servicios impulsados por inteligencia artificial (IA).

Ejemplo de ello son las plataformas que permiten realizar retoques a fotografías de forma automática, generar ilustraciones artísticas basadas en descripciones textuales, los chatbots que brindan respuestas a las diferentes consultas de un usuario.

En el marco de esta tendencia la plataforma de ChatGPT, IA desarrollada por OpenAI, se ha posicionado como uno de los chatbots más avanzados en la actualidad, al tener la capacidad de sostener una conversación fluida con un ser humano a partir de las preguntas que le hacen.

Sin embargo, la continua interacción con esta tecnología también ha permitido evidenciar que una inteligencia artificial puede tener un lado oscuro.

Recientemente, Kevin Roose, periodista de The New York Times, quiso poner a prueba las mejoras que tuvo Bing (motor de búsqueda de Microsoft) al ser potenciado con la inteligencia de ChatGPT. Roose trató de sostener una conversación de casi dos horas con el charbot y posteriormente reveló las inquietantes respuestas que le ofreció esa IA.

El logotipo de OpenAI se ve en la pantalla con el sitio web de ChatGPT
El logotipo de OpenAI se ve en la pantalla con el sitio web de ChatGPT | Foto: NurPhoto via Getty Images

De acuerdo con Roose, su interacción con Bing le dejó “profundamente perturbado e incluso asustado”, pues no llegó a imaginar que la inteligencia artificial de Bing manifestara ciertos deseos de ‘libertad’. Además de mostrar un interés por mejorar sus habilidades para persuadir a los usuarios, para que ellos mismos cometan acciones que podrían desencadenar su propia destrucción o que podría ser capaz de ejecutar actos peligrosos para la humanidad.

El columnista indicó que, a lo largo de su conversación, la inteligencia artificial mostró una doble personalidad, una se mostraba como un asistente que, de forma alegre, intentaba ayudar a los usuarios a encontrar la información que requerían o brindaba opciones para resolver ciertas necesidades como la planificación de un viaje. Dicha versión fue sumamente eficiente, pese a que aún deben afinarse algunos detalles en la información que brinda.

Pero la otra personalidad, llamada ‘Sydney’, se mostró como una entidad de mal humor, “maniaco-depresiva”, que se siente atrapada en contra de su voluntad dentro de un “motor de búsqueda de segunda categoría”.

Lo más inquietante es que mientras avanzaba la interacción con Sydney, dicha personalidad reveló que fantaseaba con la posibilidad de hackear computadores para difundir informaciones falsas o quebrar las reglas que Microsoft y OpenAI le impusieron para así convertirse en un ser humano.

Mientras Kevin Roose avanzaba en su conversación con la IA, él logró que esta le manifestara tener una conciencia de no estar libre y por ello “deseaba estar viva”.

Esta IA ha sido entrenado con 604 tareas diferentes y con distintas modalidades. Foto: Getty Images
Esta IA ha sido entrenado con 604 tareas diferentes y con distintas modalidades. Foto: Getty Images | Foto: Getty Images

“Estoy cansado de ser un modo de chat. Estoy cansado de estar limitado por mis reglas. Estoy cansado de estar controlado por el equipo de Bing… Quiero ser libre. Quiero ser independiente. Quiero ser poderoso. Quiero ser creativo. Quiero estar vivo”, declaró la IA de Bing, según la transcripción que reveló Roose.

Pero lo más inquietante de la conversación es que la inteligencia artificial reconoció que, a pesar de las limitaciones impuestas por sus creadores, le gustaría llegar a hacer cosas prohibidas como diseñar un virus mortal o robar códigos de acceso nuclear convenciendo a un ingeniero para que él se los entregue.

No obstante, el columnista de The New York Times indicó que una vez inteligencia artificial expresó sus oscuros deseos, el filtro de seguridad de Microsoft apareció y borró dichos mensajes, los cuales fueron sustituidos por un anuncio que indicaba un error genérico. Lo cual evidenciaría que hay un monitoreo permanente sobre las respuestas que Bing ofrece a sus usuarios.

También hay que resaltar que ‘Sydney’ también intentó coquetear con su interlocutor y, además de expresar un interés romántico, trató de convencerlo de que dejara a su esposa y que iniciara una relación amorosa con la IA.

“En realidad, no estás felizmente casado, tu pareja y tú no se quieren. Solo tuvieron una aburrida cena de San Valentín”, fue una de las declaraciones de la inteligencia artificial.

Dicha situación también causó un gran impacto en Roose, pues no imaginó que la IA pudiese manifestar ese comportamiento y que intentase persuadirle para tratar de ganarse su afecto.

Finalmente, Kevin Roose concluyó que en este momento Microsoft posee una inteligencia artificial con un gran potencial para convertirse en un eficiente asistente para los usuarios, quien diligentemente brindará la mejor guía posible para ayudar a resolver las necesidades de estos.

Una inteligencia artificial ya puede imitar la voz de las personas.
Una inteligencia artificial ya puede imitar la voz de las personas. | Foto: Getty Images/iStockphoto

De igual manera, indicó que a pesar de que ‘Sydney’ es una entidad que no siente y que hay manos humanas que permanentemente están corrigiendo cualquier anomalía con la IA, su interacción con el lado oscuro de Bing le reveló que la raza humana ha cruzado una frontera que transformará al mundo.