La inteligencia artificial (IA) ya no hace parte del futuro, pues ya está siendo parte activa del presente de la sociedad en todo el planeta.
Recientemente, la Future of Life Institute (FLI) hizo público un documento tipo carta, en la que se pedía pausar el desarrollo de dicha tecnología y cuestionaba si valía la pena poner a competir a los humanos con las máquinas: “Los sistemas contemporáneos de IA están llegando a competir con los humanos en tareas generales, y debemos preguntarnos: ¿Debemos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedades?”.
Y agrega: “¿Debemos automatizar todos los trabajos, incluidos los satisfactorios? ¿Debemos desarrollar mentes no humanas que con el tiempo nos superen en número, inteligencia, obsolescencia y reemplazo? ¿Debemos arriesgarnos a perder el control de nuestra civilización?”.
Por lo que sostiene: “Los sistemas de IA potentes solo deben desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables. Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema”.
Sobre esto, Eliezer Yudkowsky, responsable del Machine Intelligence Research Institute, considera que es importante detener (al menos temporalmente) el desarrollo de la IA, de acuerdo como lo expresó en un artículo en el portal web de la revista estadounidense Time.
Allí Eliezer manifiesta que trabajar en la IA “requeriría precisión y preparación y nuevos conocimientos científicos [...] En ausencia de ese cuidado, obtenemos que ‘la IA no te ama, ni te odia, y estás hecho de átomos que puede usar para otra cosa’”.
Así, también afirmó que está de acuerdo en que “las IA actuales probablemente solo estén imitando la conversación sobre la autoconciencia de sus datos de entrenamiento. Pero señalo que, con la poca comprensión que tenemos de las partes internas de estos sistemas, en realidad no lo sabemos. [...] No vamos a cerrar esa brecha en seis meses.”.
Yudkowsky explica que para desarrollar esta inteligencia hay que revisar todos los factores y afirma que se necesitaron al menos 60 años desde la primera vez que se habló de la afamada inteligencia artificial, por lo que reconoce que la humanidad aún tiene mucho camino por recorrer e incluso sentencia que si todo sigue como va, los humanos mueran.
“No estamos preparados. No estamos en camino de estar preparados en una ventana de tiempo razonable. No hay plan. El progreso en las capacidades de la IA es enorme, muy por delante del progreso en la alineación de la IA o incluso del progreso en la comprensión de qué diablos está pasando dentro de esos sistemas. Si realmente hacemos esto, todos vamos a morir”, aseveró.
Por lo que plantea una moratoria (cambio en el tiempo estimado) hipotética que incluiría, evidentemente, a los Gobiernos, por mencionar algunos, de los Estados Unidos o China y también, a los militares.
Y asegura: “Que todos vivamos o muramos como uno, en esto, no es una política sino un hecho de la naturaleza. Hacer explícito en la diplomacia internacional que la prevención de escenarios de extinción de la IA se considera una prioridad por encima de la prevención de un intercambio nuclear total, y que los países nucleares aliados están dispuestos a correr algún riesgo de intercambio nuclear si eso es lo que se necesita para reducir el riesgo de grandes carreras de entrenamiento de IA”.
Y concluye su texto, manteniéndose firme en su posición: “No estamos listos No estamos en camino de estar significativamente más preparados en el futuro previsible. Si seguimos adelante con esto, todos morirán, incluidos los niños que no eligieron esto y no hicieron nada malo”.
Sin embargo, vale decir que la IA no es del todo mala, pues Yennifer Gómez, científica de datos de Axity, afirma que “los modelos de inteligencia artificial han permitido proteger información sensible ante hackers, analizar sentimientos de un cliente al recibir un producto, medir el impacto de metodologías de aprendizaje en las universidades e incluso convertir cientos de llamadas de PQRS en textos”.