Tecnología
Reconocido psicólogo que advirtió sobre el poder de Facebook hace temeraria predicción sobre la IA
El investigador realizó un profundo estudio sobre el comportamiento de la Inteligencia Artificial.
Una de las revistas más prestigiosas de Estados Unidos, Wired, que se ha encargado de publicar investigaciones del más alto nivel en materia de tecnología e informática, habló con Michal Kosinski, un reconocido científico de Stanford que analizó la IA e hizo una temeraria predicción.
Kosinski es psicólogo informático y se encarga, según la publicación, de alertar al mundo de los peligros potenciales de los sistemas informáticos. En su momento, el investigador advirtió sobre Facebook y lo que predijo como una empresa que iba a adquirir un conocimiento profundo de sus usuarios.
El experto se dedica ahora a estudiar los alcances de la Inteligencia Artificial y ha realizado experimentos que indican que los ordenadores podrían predecir la orientación sexual de una persona sólo analizando la foto de su rostro.
Recientemente, el investigador ha realizado un estudio más profundo sobre el comportamiento de la IA y, según explica, los modelos del lenguaje de esta herramienta, como por ejemplo de OpenAI, han causado una frontera cualitativa e incluso utilizan técnicas análogas al pensamiento real que eran consideradas características de los seres humanos.
Tendencias
El hombre probó los modelos GPT-3.5 y GPT-4 de OpenAI para ver si dominaban lo que se conoce como “teoría de la mente”, según Wired, que trata la capacidad desarrollada por los humanos en la infancia y que comprende los procesos de pensamiento de otros humanos.
Este avance es importante toda vez que si un sistema informático no puede interpretar correctamente lo que piensa la gente, su comprensión del mundo se empobrecerá y se equivocará en muchas cosas. Sin embargo, envía una alerta sobre los modelos que podrían ser superados por la IA, que incluso están más cerca de igualar y superar las capacidades humanas.
La publicación de Wired asegura que los experimentos del psicólogo demuestran que GPT-4, en particular, tiene una capacidad similar de la teoría de la mente y “puede haber surgido como un subproducto no intencionado de la mejora de las habilidades lingüísticas de los LLM, lo que significa el advenimiento de una IA más poderosa y socialmente hábil”.
"Language Models" is a misnomer. To predict the next word in a sentence crafted by a thinking, feeling person, AI needs to model more than just language—grammar and word meanings. It has to account for thoughts, emotions, personality, and other psychological processes that shape…
— Michal Kosinski (@michalkosinski) November 4, 2024
El investigador dijo que cuando OpenAI y Google empezaron a construir los modelos de Inteligencia Artificial “en realidad entrenaron un modelo de mente humana, porque no se puede predecir qué palabra voy a decir a continuación sin modelar mi mente”.
Esto no significa que Kosinski confirme que los modelos del lenguaje dominen la teoría de la mente, pero es algo que puede pasar, es más, el investigador sitúa a a GPT-4 al nivel de los niños de 6 años de edad.
“Si la teoría de la mente surgió de forma espontánea en esos modelos, también pueden surgir otras habilidades a continuación”, comentó a Wired, y agregó: “pueden ser mejores educándonos, influyéndonos y manipulándonos gracias a esas habilidades”.
A juicio del experto, los humanos no simulamos la personalidad, la tenemos, “así que estoy atrapado en mi personalidad. Estas cosas modelan la personalidad”.