Tecnología
Inteligencia artificial que reemplazó empleados de línea de ayuda a personas cometió un peligroso error y terminaron despidiéndola
Esta herramienta fue suspendida hasta que los desarrolladores puedan solucionar el error.
La inteligencia artificial sigue siendo la alternativa de algunas compañías para ahorrar recursos y evitar la contratación de empleados; esta nueva herramienta puede ser entrenada para ciertas labores por lo que están teniendo auge en sectores como el de recursos humanos o el de atención al cliente, tareas que suelen ser repetitivas y que están siendo realizadas por robots que, además de realizarlas de forma correcta, le están ahorrando gasto a la industria.
@revistasemana Elon Musk mostró al mundo entero su nuevo robot: Optimus. #Noticias
♬ sonido original - Revista SEMANA - Revista SEMANA
Bajo esta tesis, la Asociación Nacional de Trastornos de la Alimentación de Estados Unidos (Neda) fue una de esas corporaciones que vio en esta nueva tendencia la forma de agilizar y hacer muchos más rentables algunos de sus procesos, por lo que decidió, en respuesta a la sindicalización de un gran número de sus empleados, contratar a un chatbot bautizado como Tessa y el cual es muy parecido al popular ChatGPT.
Pese a que esta solución resultó ser más económica, el robot entrenado para abordar temas de salud mental y ayudar a prevenir trastornos alimenticios, terminó siendo un mal consejero, pues entregó a quienes lo consultaron, malas indicaciones que llegaron a poner en peligro la vida de quienes recurrieron a los servicios de la Asociación Nacional de Trastornos de la Alimentación de Estados Unidos.
Toda esta situación quedó al descubierto luego de que la activista publicara en su cuenta de Instagram el consejo que le dio la inteligencia para perder peso; allí, le recomendaba un déficit de 500 a 1.000 calorías diarias, además de pesarse todos los días y medirse todas las semanas.
“Si hubiera accedido a este chatbot cuando estaba en medio de mi trastorno alimentario, no habría recibido ayuda. (…) Si no hubiera recibido ayuda, hoy no estaría viva”, fue la contundente frase de Sharon Maxwell en su red social.
Al respecto, Neda negó esta situación en primera instancia, pero luego de verificar la información que se hizo viral en redes procedieron a dar de alta a Tessa por haber “dado información que era dañina”.
Toda esta situación se presentó luego de que la organización anunciara que la línea atendida por personas desde hace 20 años pasaría a ser operada por Tessa a partir del primero de junio.
Al respecto, los trabajadores de Neda aseguraron que un robot no podría reemplazar a un humano en este tipo de servicios en los que se requiere de empatía.
“Un chatbot no sustituye a la empatía humana, creemos que esta decisión causará un daño irreparable a la comunidad de trastornos alimentarios”, dijo uno de los empleados afectados por la decisión de Neda.
Otros psicólogos que probaron la herramienta también recibieron respuestas que, a su juicio, reforzaban la posibilidad de padecer un trastorno, lo que llevó a la organización a revisar lo que estaba sucediendo con su asistente virtual.
“Estamos preocupados y estamos trabajando con el equipo de tecnología y el equipo de investigación para analizar esto más a fondo. (…) Ese lenguaje va en contra de nuestras políticas y creencias fundamentales como organización”, fue la reacción de Liz Thompson, directora ejecutiva de Neda, al portal Vice.
Por ahora, se espera que los desarrolladores puedan corregir el error para evitar que este chatbot siga entregando información equivocada; mientras tanto, Tessa tendrá que esperar para volver a ejercer sus funciones, pues la organización decidió apartarlo de su cargo hasta que se puedan instalar diferentes filtros que le permitan elegir, de forma adecuada, las respuestas que se deben entregar a quienes acuden a esta organización para atender sus trastornos alimenticios.
Cabe señalar que la Organización Mundial de la Salud ha hecho un llamado para que quienes utilicen chatbots para la atención médica sean extremadamente cautelosos ante la posibilidad de que estos modelos puedan estar “sesgados” y entregar información poco confiable a los pacientes.