La inteligencia artificial sigue avanzando en medio de un panorama que no es claro y que la misma industria de la tecnología ha pedido analizar con argumentos suficientes para saber como este desarrollo podría afectar a la humanidad.

Desde que se comenzó a hablar sobre este tema, hubo grandes personalidades que buscaron advertir sobre los beneficios y las complicaciones que podrían traer estas nuevas herramientas; sin embargo, no todas las opiniones fueron tenidas en cuenta, pese a que lo que pronosticaban era bastante delicado.

Es el caso del profesor Gary Marcus, quien en diálogo con medios británicos señaló que en un principio, cuando puso sobre la mesa la posibilidad de que esta tecnología se saliera de control fue tildado de “loco o alarmista”. Y es que hace seis meses este hombre, una de las principales voces en medio del debate de la inteligencia artificial, aseguró que “Algo increíble está sucediendo en el mundo de la inteligencia artificial, y no es del todo bueno”.

ChatGPT, herramienta desarrollada por OpenAI fue prohibida para los trabajadores de Samsung. | Foto: Bing Image Creator

Ahora, un buen tiempo después y en el que se han descubierto los múltiples usos que se le pueden dar a las herramientas alimentadas con esta nueva tecnología, es que sus palabras comienzan a cobrar un valor importante, pues Marcus había realizado una serie de predicciones que se han venido cumpliendo al pie de la letra.

En marzo de 2023 se conoció sobre el suicidio de un hombre en Bélgica, luego de que se revelara que conversaba de manera frecuente con el chatbot llamado Eliza, creado por la compañía Chai.

Justamente, Marcus había señalado en un escenario similar a este en un artículo escrito por él para la revista Wired cuatro meses antes: “¿Quizás un chatbot lastimará a alguien tan profundamente que la persona se verá impulsada a terminar con su vida? (...) En 2023, podemos ver nuestro primer asesinato por un chatbot”.

“Creo que estos sistemas pueden ser muy destructivos. Y parte de la razón del potencial de destrucción es que no son confiables. Estos programas pueden inventar algo y decirle [al usuario] que es un hecho. Y también pueden ser usados por personas para ese fin”, agregó el experto.

Esta herramienta ha protagonizado errores en los que ha vinculado a personas con casos de abuso sexual. | Foto: Beata Zawrzel/NurPhoto

En 2022, Marcus realizó siete predicciones sobre herramientas como ChatGPT, el poderoso chatbot creado por OpeanAI con el apoyo de Microsoft y que curiosamente se han venido

Otra de las predicciones que hizo tenía que ver con la posibilidad de que este producto cometiera “errores alucinantes en formas que son difíciles de predecir”. En este sentido, a finales de marzo se conoció la respuesta de este boot a la petición de un usuario que le solicitó hacer una lista de académicos involucrados en casos de acoso sexual.

ChatGPT señaló que el profesor de derecho estadounidense, Jonathan Turley realizó comentarios sexuales a una joven estudiante durante un viaje a Alaska y que además intentó tocarla. La herramienta asegura haberse informado con un informe publicado en el Washington Post en 2018; sin embargo, nada de esto sucedió, ni el informe, ni el supuesto caso de acoso ni los comentarios, por lo que las dudas giran en torno al rededor de cómo la herramienta pudo inventar algo así.

El profesor Gary Marcus es una voz autorizada que se ha encargado de cuestionar duramente a la inteligencia artificial y las consecuencias que podría traer sobre la humanidad. | Foto: Getty Images

La respuesta de OpenAI al respecto es que este sistema “no siempre genera repuestas precisas”, lo que llevó a Marcus a señalar que “no tenemos ninguna garantía formal de que estos programas funcionen correctamente, incluso cuando hacen cálculos matemáticos”.

“Los LLM no son tan inteligentes, pero son peligrosos”, sentenció Marcus, haciendo referencia a los sistemas de lenguaje que utilizan las herramientas de inteligencia artificial y que están poniendo en jaque a la humanidad debido a la información que están difundiendo y sobre la cual hay poco control.