Tecnología

“Profesor loco” que lanzó profecías sobre ChatGPT ha acertado con precisión en varias de sus predicciones

Gary Marcus ha cuestionado duramente el desarrollo de herramientas como ChatGPT.

12 de mayo de 2023
Una foto de ChatGPT tomada en Jiangsu (China) el 6 de febrero de 2023
Eta herramienta ha cometido imprecisiones al ser consultada por usuarios; OpenAI ha defendido a su producto y ha señalado que no todas sus respuestas pueden ser precisas. | Foto: Future Publishing via Getty Imag

La inteligencia artificial sigue avanzando en medio de un panorama que no es claro y que la misma industria de la tecnología ha pedido analizar con argumentos suficientes para saber como este desarrollo podría afectar a la humanidad.

Desde que se comenzó a hablar sobre este tema, hubo grandes personalidades que buscaron advertir sobre los beneficios y las complicaciones que podrían traer estas nuevas herramientas; sin embargo, no todas las opiniones fueron tenidas en cuenta, pese a que lo que pronosticaban era bastante delicado.

Es el caso del profesor Gary Marcus, quien en diálogo con medios británicos señaló que en un principio, cuando puso sobre la mesa la posibilidad de que esta tecnología se saliera de control fue tildado de “loco o alarmista”. Y es que hace seis meses este hombre, una de las principales voces en medio del debate de la inteligencia artificial, aseguró que “Algo increíble está sucediendo en el mundo de la inteligencia artificial, y no es del todo bueno”.

ChatGPT es prohibido para los trabajadores de Samsung.
ChatGPT, herramienta desarrollada por OpenAI fue prohibida para los trabajadores de Samsung. | Foto: Ilustración generada por IA Bing Image Creator

Ahora, un buen tiempo después y en el que se han descubierto los múltiples usos que se le pueden dar a las herramientas alimentadas con esta nueva tecnología, es que sus palabras comienzan a cobrar un valor importante, pues Marcus había realizado una serie de predicciones que se han venido cumpliendo al pie de la letra.

En marzo de 2023 se conoció sobre el suicidio de un hombre en Bélgica, luego de que se revelara que conversaba de manera frecuente con el chatbot llamado Eliza, creado por la compañía Chai.

Justamente, Marcus había señalado en un escenario similar a este en un artículo escrito por él para la revista Wired cuatro meses antes: “¿Quizás un chatbot lastimará a alguien tan profundamente que la persona se verá impulsada a terminar con su vida? (...) En 2023, podemos ver nuestro primer asesinato por un chatbot”.

“Creo que estos sistemas pueden ser muy destructivos. Y parte de la razón del potencial de destrucción es que no son confiables. Estos programas pueden inventar algo y decirle [al usuario] que es un hecho. Y también pueden ser usados por personas para ese fin”, agregó el experto.

El sitio web de ChatGPT y OpenAI se proyecta para una foto ilustrativa en Gliwice (Polonia), el 21 de febrero de 2023 (Foto de Beata Zawrzel/NurPhoto vía Getty Images)
Esta herramienta ha protagonizado errores en los que ha vinculado a personas con casos de abuso sexual. | Foto: NurPhoto via Getty Images

En 2022, Marcus realizó siete predicciones sobre herramientas como ChatGPT, el poderoso chatbot creado por OpeanAI con el apoyo de Microsoft y que curiosamente se han venido

Otra de las predicciones que hizo tenía que ver con la posibilidad de que este producto cometiera “errores alucinantes en formas que son difíciles de predecir”. En este sentido, a finales de marzo se conoció la respuesta de este boot a la petición de un usuario que le solicitó hacer una lista de académicos involucrados en casos de acoso sexual.

ChatGPT señaló que el profesor de derecho estadounidense, Jonathan Turley realizó comentarios sexuales a una joven estudiante durante un viaje a Alaska y que además intentó tocarla. La herramienta asegura haberse informado con un informe publicado en el Washington Post en 2018; sin embargo, nada de esto sucedió, ni el informe, ni el supuesto caso de acoso ni los comentarios, por lo que las dudas giran en torno al rededor de cómo la herramienta pudo inventar algo así.

Un ciudadano visita la Sala de Experiencia de Inteligencia Artificial de iFlytek en el Puerto de Información de la Bahía de Hangzhou en Hangzhou, provincia de Zhejiang, en el este de China, el 3 de abril de 2023. Recientemente, la Sala de Experiencia de IA de IFlytek se puso en uso en la Zona de Desarrollo Económico y Tecnológico de Hangzhou Xiaoshan. La sala muestra la tendencia de desarrollo de la IA al mostrar los logros de la investigación, el desarrollo y la aplicación de IFlytek en varios campos de la IA en los últimos años. (El crédito de la foto debe leer CFOTO/Future Publishing a través de Getty Images)
El profesor Gary Marcus es una voz autorizada que se ha encargado de cuestionar duramente a la inteligencia artificial y las consecuencias que podría traer sobre la humanidad. | Foto: Future Publishing via Getty Imag

La respuesta de OpenAI al respecto es que este sistema “no siempre genera repuestas precisas”, lo que llevó a Marcus a señalar que “no tenemos ninguna garantía formal de que estos programas funcionen correctamente, incluso cuando hacen cálculos matemáticos”.

“Los LLM no son tan inteligentes, pero son peligrosos”, sentenció Marcus, haciendo referencia a los sistemas de lenguaje que utilizan las herramientas de inteligencia artificial y que están poniendo en jaque a la humanidad debido a la información que están difundiendo y sobre la cual hay poco control.