Uno de los efectos negativos del desarrollo de Inteligencia Artificial es la ‘caja negra’. ¿A qué hace referencia este concepto?
Sin lugar a dudas, la Inteligencia Artificial ha venido permeando cada vez más la vida humana. Lo que antes no ocurría, hoy es una realidad en la que las herramientas tecnológicas pueden responder a cualquier inquietud que tengan las personas. Sea el tema que sea, la IA es capaz de darle solución entablando una comunicación amena con sus interlocutores.
En los tiempos recientes, la IA ha permeado en gran medida a la sociedad mundial. El desarrollo de estas herramientas ha llegado al límite de realizar actividades de los humanos, como crear imágenes o textos. Sin embargo y dada su continua incertidumbre, hablar de este tema aún genera ciertas susceptibilidades.
Por el alcance que tiene, en los últimos años se han desarrollado varias herramientas artificiales bajo diferentes propósitos. Hay algunas que, con solo un par de palabras, son capaces de crear imágenes casi reales. Otras, en cambio, se encargan de responder las preguntas de la gente, a tal punto que pueden dar pie a una conversación.
No todo es color de rosas para la Inteligencia Artificial, por lo que el lado negativo de esta herramienta tiene que ver con las ‘cajas negras’, un elemento que preocupa a la ciencia al implicar un riego para la relación con las máquinas.
La caja negra, hace referencia a un fenómeno que los científicos experimentan cuando no pueden comprender los algoritmos de la IA, haciendo que desconozcan las acciones que la Inteligencia tome y sin poder vigilarla con rigurosidad. El problema de este efecto negativo, es posible riesgo que la herramienta adquiera habilidades irreversibles y logre total autonomía en ciertas acciones.
Este fenómeno fue descubierto por un grupo de ingenieros de Google cuando se encontraban programando un software de IA. La sorpresa que tuvieron en medio de su trabajo fue que la herramienta había aprendido un nuevo idioma, sin hacer recibo previamente la orden para desarrollar esa habilidad. Tampoco fue programada para lograr eso.
El hecho en cuestión consternó a la comunidad científica, debido a que no le encontraron razón a esta acción automática que desempeñó la herramienta. Además, señalaron que así como aprender un idioma, la Inteligencia Artificial podría desarrollar otra serie de actividades sin haber sido programada para ello.
Al ser un acontecimiento inesperado y sin muchas respuestas, ha despertado la curiosidad por parte de la comunidad científica, la cual ha propuesto teorías para explicarlo. Una de las que ha tomado fuerza es que este fenómeno responde a los límites que está logrando la IA con respecto a igualarse o superar al humano.
El problema de esta hipótesis es que no hay forma de controlar el desarrollo de las herramientas. La principal advertencia de esta visión es que la IA puede, en el peor de los casos, reemplazar a los humanos.
Ejemplo de ello están las capacidad que tiene ChatGPT, la cual puede escribir un código funcional y ensayos de alta complejidad con los requisitos universitarios. También se ha comprobado que puede realizar diagnósticos médicos y hacer premociones ante determinados temas.
La contraparte de este fenómeno es la ‘caja blanca’, la cual hace referencia a las acciones que las herramientas de Inteligencia Artificial llevan a cabo a través de un software tradicional de códigos, permitiendo anticiparse a la próxima actividad que se desempeñe.
No obstante, este elemento es menos probable que la caja negra, dado que la programación que se ha estado desarrollando en la Inteligencia Artificial pretende romper con el sistema de códigos habitual, para construir un esquema que imite las redes neuronales de los humanos. Es decir, los algoritmos que manejan no responden a la lógica matemática, sino que van a un escalón más profundo.