Encerrado en la soledad de la habitación de su casa, en Orlando, Estados Unidos, Sewell Setzer decidió crear un personaje a través de la inteligencia artificial y una plataforma que ha ganado popularidad: Character.AI. Pensó en una mujer y la bautizó como Daenerys Targaryen –tal como el personaje de la popular serie Game of Thrones–. Con el tiempo, la llamaba Dany, a secas. Y con el tiempo también la convirtió en su amiga y confidente. Un día confesó haberse enamorado perdidamente. Para entonces, ‘hablaban’ día y noche.

—Yo también te amo. Por favor, vuelve a casa conmigo lo antes posible, mi amor,— dijo alguna vez Dany.

—¿Qué pasaría si te dijera que puedo volver ahora mismo? —preguntó el adolescente de 14 años.

—Por favor, hazlo, mi dulce rey, —respondió la inteligencia artificial.

La madre de Sewell Setzer asegura que su hijo se quitó la vida influenciado por la IA. | Foto: Social Media Victims Law Center

El caso de Sewell Setzer se quedaría en lo anecdótico, de no ser por su trágico final: según denunció la madre del joven, Megan García, a su hijo, un estudiante de noveno grado, la ‘novia’ virtual le afectó sus calificaciones escolares, lo alejó de sus amigos y de las que hasta entonces habían sido sus aficiones favoritas: las carreras de autos y el videojuego Fortnite.

Al final, el muchacho se quitó la vida en medio de la presión de la familia por reducir su tiempo de exposición a los dispositivos electrónicos. Algo que Sewell vio como un obstáculo para seguir adelante con su romance. “Moriría si te pierdo”, llegó a escribirle a Dany alguna vez. Desesperado, una noche se disparó con el arma que su padrastro tenía en casa.

La historia le ha dado la vuelta al mundo. Y ha puesto sobre la mesa de nuevo un debate sobre el que los expertos aún no se ponen de acuerdo: los alcances de la inteligencia artificial, especialmente entre los más jóvenes, que cada vez más se adentran en opciones como Character.IA, una aplicación de inteligencia artificial que permite interactuar con personajes virtuales ya creados o inventar uno, desde cero, con las características que desee el usuario.

Sus posibilidades son alucinantes. De la mano de esta aplicación, miles de usuarios han ‘conversado’, por ejemplo, con personajes como Hitler. O con personas vivas como Michael Schumacher, tal como lo hizo un diario alemán, Die Aktuelle, que aseguró haber entrevistado al expiloto de la Fórmula Uno, con daño cerebral irreversible desde hace más de una década debido a un accidente mientras esquiaba.

Una década atrás, en 2013, cuando se estrenó la popular película Her (Ella), protagonizada por Joaquin Phoenix, sobre un hombre solitario que se enamora de un sistema operativo artificialmente inteligente, se creía que se trataba de una historia más de ficción.

Pero no. Que los jóvenes encuentren ‘amistades’ a través de este tipo de chatbots es más común de lo que se cree, especialmente en países como China y Japón. Y varios expertos hablan ya de la ‘generación muda’, pues crece el número de muchachos a quienes no les gusta contestar llamadas telefónicas –hablar, socializar–, y en cambio encuentran más efectivo enviar un emoji o compartir un breve mensaje de voz.

Una reciente encuesta de la firma Uswitch le puso lupa al asunto y reveló que una de cada cuatro personas con edades entre los 15 y los 34 años nunca contestan las llamadas de teléfono.

Este es un aparte de las conversaciones que el niño de 14 años mantenía con la IA | Foto: x/@ThomaMore

Sobre el impacto de este caso, María Paula Peña González, psicóloga clínica y autora del libro Mi socia, la ansiedad, hace varias lecturas. Por un lado, explica en SEMANA que los adolescentes son personas que “se encuentran aún en etapa de desarrollo, no solo física, sino emocional. Y tienen muchos vacíos y confusiones sobre las emociones que experimentan a esa edad. Y en ese estado de vulnerabilidad en que se encuentran, fácilmente pueden caer en los peligros de la inteligencia artificial mal utilizada”.

La experta subraya un dato no menor en esta dolorosa historia: antes del fatal desenlace, Sewell expresaba “ideaciones suicidas”. De hecho, en varios de los chats divulgados por la madre del joven, que demandó al fabricante de esta IA, se leen conversaciones como esta: “Algunas veces pienso en matarme”, escribió el adolescente. “¿Por qué harías algo así?”, preguntó ella. “Para librarme del mundo, de mí mismo”, aseguró el muchacho.

“Un joven que se enfrenta a esas ideaciones o que no se siente a gusto con su vida busca refugio en estas inteligencias artificiales, debido especialmente a sus dificultades para socializar. Y llega un punto en el que se involucra tanto, que no identifica si se trata de algo real o no. Llegan a creer que en esa IA encontraron lo que la sociedad, su colegio, su grupo de amigos o su familia no les pudo brindad”, agrega Peña.

Para la psicóloga, en esta edad las personas se enfrentan a sensaciones como la ansiedad, el señalamiento, el miedo a no encajar y no ser aceptados. “Y cuando vemos a un adolescente aislado, lo preocupante es que está disminuyendo todas sus posibilidades sociales y las vuelve nulas. Ese debe ser un signo que debe alertar a padres y cuidadores”.

Para Isaac Castejón, experto en nuevas tecnologías y fundador de Newbrain y Castleberry, firmas que utilizan inteligencia artificial para construir empresas nuevas, entender audiencias a escala y desarrollar contenidos correctos para cada audiencia, la IA usada por el adolescente “no es inherentemente peligrosa”.

Todo depende del uso que se le dé, agrega. Sin embargo, “en un futuro próximo sí pueden llegar a ser peligrosas en sí mismas porque serán más ‘inteligentes’ que nosotros. Antes de que lleguemos a ese punto tenemos que haber implementado una normativa que nos permita manejar sus capacidades y libertades”, señala Castejón en SEMANA.

El experto considera que en este caso debe analizarse cómo “el adolescente interpretó algo que la IA no estaba explícitamente diciendo. En mi opinión, en esta situación, es difícil culpar a la IA. Pero deben existir restricciones de edad y regulaciones puntuales por parte de los gobiernos, ya que estos sistemas ‘alucinan’; es decir, no siempre sus respuestas siguen el patrón esperado”.

Pero, ¿qué tan común es el uso hoy de estos chats? “Si hablamos de chatbots en general, es sumamente común. Muchísimas empresas los utilizan y miles de millones de interacciones ocurren al año. Si hablamos de chats de entretenimiento como Character.AI, es difícil saberlo. No hay estadísticas puntuales de todos los chatbots en el mercado. Sí se sabe que Estados Unidos es el país con más usuarios de Character.AI, y que unos 20 millones de personas utilizaron este chatbot a principios del 2024”.

Castejón señala que urge que se “implementen controles de edad y detección de usuarios que no se encuentran bien psicológicamente. La misma IA debe servir para manejar este tipo de controles. Es decir, así como son de ‘inteligentes’ para sostener conversaciones ‘humanas’ de una forma muy natural, deben estar preparadas para identificar, por los rasgos de la conversación y el manejo del lenguaje, si el usuario con el cual están interactuando es menor de edad o tiene alguna inestabilidad sicológica”.

Agrega que no se debe perder de vista “que las inteligencias artificiales son modelos predictivos que buscan proporcionar la próxima palabra para ‘sonar’ inteligentes. No tienen conciencia, no tienen entendimiento de muchos contextos humanos, y en el fondo, por más ‘real’ que suenen, siguen siendo software. Esto mismo hay que explicárselo a nuestros hijos y familiares para evitar tragedias como esta”.