ChatGPT
La verdad oculta de ChatGPT, ¿utiliza a trabajadores pobres para sostenerse?
La inteligencia artificial tiene un método particular de codificar la información que le lleva al público. Esta es la verdad oculta que ChatGPT no quiere que sepa.
ChatGPT está deslumbrando al mundo. Puede responder cualquier duda en minutos, superando la eficiencia de buscadores como Google, y es capaz de escribir artículos, tareas escolares y cualquier cosa que requiera información. Sin embargo, también genera muchas dudas y no es tan independiente de los humanos como parece.
La inteligencia artificial conocida como ChatGPT funciona de la siguiente manera en comparación con un buscador normal: se hace una pregunta, por ejemplo, ¿quién descubrió América? Google arrojaría varios links en los que se puede buscar la respuesta, mientras que ChatGPT respondería directamente que fue Cristóbal Colón. Básicamente, mientras que Google da las herramientas para encontrar la respuesta, la IA la da se una vez.
Además, ChatGPT es capaz de construir textos complejos, con un lenguaje muy avanzado que hace dudar de si se habla con una máquina o con un humano. Puede sostener conversaciones y hasta escribir noticias o ensayos escolares. Es por esto que, aparte de admiración y curiosidad, ha generado reserva y temor.
Muchos lo ven como el reemplazo de muchos puestos de trabajo a futuro; otros, más apocalípticos, como el inicio de una posible revolución de las máquinas al estilo Terminator con la Skynet, o como Ultrón en Avengers. Sin embargo, hay una arista que no se ha tenido en cuenta, que no es visible y puede ser más problemática que las teorías conspirativas anteriores, y es la de los “entrenadores”, por llamarlos de alguna manera, de ChatGPT.
Los etiquetadores
ChatGPT funciona buscando información en internet y sintetizándola, pero para esto alguien tiene que enseñarle qué información sirve y qué no. Por ejemplo: se necesita información sobre plantas medicinales. ChatGPT entonces buscará por todo internet contenido al respecto. En el proceso seleccionará lo que sí corresponde a información sobre este tipo de plantas y descartará lo que no.
En una página, por ejemplo, encuentra usos medicinales de la hoja de coca y eso lo utilizará para la respuesta; en la misma página puede haber información sobre la función ornamental de la lavanda y, si bien esta es una planta medicinal, su importancia en la decoración no tiene nada que ver con la petición inicial, por lo tanto, ChatGPT la descartará.
Muy inteligente, ¿no? La IA solo es capaz de hacer esto gracias a las múltiples horas que los etiquetadores pasaron sentados frente a un computador, enseñándole que sí cuenta y qué no. Estas personas son subcontratadas por OpenAI —dueño de ChatGPT— a través de compañías como PigmigIA o SAMA.
A los etiquetadores se les pagan menos de dos dólares estadounidenses la hora, según un reportaje del periodista Billy Perrigo para la revista TIME, un sueldo bajo considerando que son, de acuerdo con la asociación sin fines de lucro Partnership on AI (PAI), la parte más importante de la cadena de trabajo, pues sin ellos el chat no podría responder a las solicitudes.
Vienen de países en vías de desarrollo como Kenia, Uganda o India, en donde el pago en dólares justifica las precarias condiciones laborales, según el mismo reportaje. De hecho, la empresa PigmigIA tiene una sede en Colombia, en donde contratan a migrantes venezolanos. Ahora bien, la alta empleabilidad que generan es positiva, pues de esa manera han ayudado a varias personas a encontrar un trabajo.
El problema viene entonces en las jornadas y la salud mental de los etiquetadores, ¿por qué la salud mental? Estas personas no solo se ven expuestas a mínimo ocho horas de trabajo frente a una pantalla, que de acuerdo con el Centro integral de neuropsicología educativa puede alterar la visión, el lenguaje, las habilidades sociales, la conducta y, sobre todo, los patrones de sueño.
La parte más problemática es el hecho de que los etiquetadores tiene que pasar este tiempo recorriendo los rincones más profundos de internet para poder enseñarle a ChatGPT de forma correcta, y esto incluye exponerse a contenidos altamente perjudiciales como pornografía, pornografía infantil, gore y otros.
Además, no hay manera de evadirlo, pues es de suma importancia que la inteligencia artificial sepa que este tipo de contenidos no son aptos para dar respuesta a las solicitudes, por lo que los etiquetadores tienen sí o sí que marcarlo como algo descartable; para hacerlo, deben ingresar a estos sitios web.
Estar expuestos a esta clase de información puede generar traumas, problemas graves de ansiedad y afecciones serias en la salud mental; lo complicado es que las empresas no brindan un acompañamiento psicológico a sus trabajadores para ayudarlos a sobrellevar esta situación.
Esto se puede deber al ocultismo con el que se maneja esta labor. De hecho, se les conoce como la fuerza oculta de trabajo, pues a OpenIA no le interesa que se sepa que su inteligencia artificial es en exceso dependiente de los humanos, pues ellos venden ChatGPT como algo revolucionario tecnológicamente. Pero también puede ser un caso más de contratación en masa que no cuida el bienestar de sus trabajadores.