Tecnología

El misterio de la ‘caja negra’ de la Inteligencia Artificial que genera preocupación mundial

La IA está cada vez más cerca de llegar a un estado de automatización sin control, según advertencias de la comunidad científica.

26 de mayo de 2023
Inteligencia artificial lee pensamientos y los convierte en videos.
¿Qué es 'la caja negra' de la Inteligencia Artificial? | Foto: Ilustración generada por IA Bing Image Creator

Uno de los efectos negativos del desarrollo de Inteligencia Artificial es la ‘caja negra’. ¿A qué hace referencia este concepto?

Sin lugar a dudas, la Inteligencia Artificial ha venido permeando cada vez más la vida humana. Lo que antes no ocurría, hoy es una realidad en la que las herramientas tecnológicas pueden responder a cualquier inquietud que tengan las personas. Sea el tema que sea, la IA es capaz de darle solución entablando una comunicación amena con sus interlocutores.

En los tiempos recientes, la IA ha permeado en gran medida a la sociedad mundial. El desarrollo de estas herramientas ha llegado al límite de realizar actividades de los humanos, como crear imágenes o textos. Sin embargo y dada su continua incertidumbre, hablar de este tema aún genera ciertas susceptibilidades.

Por el alcance que tiene, en los últimos años se han desarrollado varias herramientas artificiales bajo diferentes propósitos. Hay algunas que, con solo un par de palabras, son capaces de crear imágenes casi reales. Otras, en cambio, se encargan de responder las preguntas de la gente, a tal punto que pueden dar pie a una conversación.

Un servicio digital usar inteligencia artificial para convertir ideas en texto.
Los resultados que ha generado la IA en la sociedad son impresionantes. | Foto: Ilustración generada por IA Bing Image Creator

No todo es color de rosas para la Inteligencia Artificial, por lo que el lado negativo de esta herramienta tiene que ver con las ‘cajas negras’, un elemento que preocupa a la ciencia al implicar un riego para la relación con las máquinas.

La caja negra, hace referencia a un fenómeno que los científicos experimentan cuando no pueden comprender los algoritmos de la IA, haciendo que desconozcan las acciones que la Inteligencia tome y sin poder vigilarla con rigurosidad. El problema de este efecto negativo, es posible riesgo que la herramienta adquiera habilidades irreversibles y logre total autonomía en ciertas acciones.

Este fenómeno fue descubierto por un grupo de ingenieros de Google cuando se encontraban programando un software de IA. La sorpresa que tuvieron en medio de su trabajo fue que la herramienta había aprendido un nuevo idioma, sin hacer recibo previamente la orden para desarrollar esa habilidad. Tampoco fue programada para lograr eso.

Google
El hallazgo de este fenómeno se dio gracias a un equipo de ingenieros de Google, quienes se encontraban trabajando con IA. (Photo by Pau BARRENA / AFP) | Foto: AFP

El hecho en cuestión consternó a la comunidad científica, debido a que no le encontraron razón a esta acción automática que desempeñó la herramienta. Además, señalaron que así como aprender un idioma, la Inteligencia Artificial podría desarrollar otra serie de actividades sin haber sido programada para ello.

Al ser un acontecimiento inesperado y sin muchas respuestas, ha despertado la curiosidad por parte de la comunidad científica, la cual ha propuesto teorías para explicarlo. Una de las que ha tomado fuerza es que este fenómeno responde a los límites que está logrando la IA con respecto a igualarse o superar al humano.

El problema de esta hipótesis es que no hay forma de controlar el desarrollo de las herramientas. La principal advertencia de esta visión es que la IA puede, en el peor de los casos, reemplazar a los humanos.

ChatGPT Open AI
ChatGPT, la herramienta por excelencia que más se emplea. | Foto: SOPA Images/LightRocket via Gett

Ejemplo de ello están las capacidad que tiene ChatGPT, la cual puede escribir un código funcional y ensayos de alta complejidad con los requisitos universitarios. También se ha comprobado que puede realizar diagnósticos médicos y hacer premociones ante determinados temas.

No obstante, este elemento es menos probable que la caja negra, dado que la programación que se ha estado desarrollando en la Inteligencia Artificial pretende romper con el sistema de códigos habitual, para construir un esquema que imite las redes neuronales de los humanos. Es decir, los algoritmos que manejan no responden a la lógica matemática, sino que van a un escalón más profundo.

Noticias relacionadas