Desde finales del año pasado, los alcances de las herramientas de inteligencia artificial sorprendieron a todos. Quizás desde hace varios años las industrias ya habían estado aprovechando las ventajas de contar con estos sistemas de algoritmos que pueden ser entrenados para alguna función en particular, pero lo más novedoso fue que por primera vez estuvieran al alcance de todos, y más con la automatización de procesos creativos o intelectuales como lo ha logrado ChatGPT.
Los temores son varios. Incluso, recientemente varios líderes tecnológicos, entre los que se encuentran Elon Musk, escribieron una carta pidiendo a los laboratorios detener los entrenamientos de estas tecnologías argumentando que pueden existir riesgos para la humanidad.
Para Juan De Brigard, coordinador del área de Autonomía y Dignidad de la Fundación Karisma, una organización que trabaja por los derechos humanos en el ámbito de la tecnología (que incluye brechas digitales, acceso a internet, democratización de la cultura, entre otros), argumenta que antes de entrar de lleno a la discusión hay que tratar con cuidado el término de Inteligencia Artificial. “Ese término tiene algo de marketing. Para referirse correctamente a este tipo de tecnologías habría que especificar el alcance y tipo de tecnología, porque no es lo mismo hablar de ChatGPT, que de la tecnología de reconocimiento facial. Cada una tiene un objetivo distinto y una construcción diferente”, explica.
Lo anterior implica también entender que su impacto es diferente en un escenario privado y uno público. Por eso la reglamentación, indica, no debería hacerse de forma global, como un conjunto homogéneo, sino revisando las implicaciones de cada uso de acuerdo a su contexto. Por ejemplo, la aplicación de un algoritmo que ayuda a automatizar la distribución de los recursos públicos. “Hay que tener en cuenta que estas tecnologías siguen instrucciones humanas y por lo tanto pueden reproducir sus sesgos. Imagínese donde en un programa de recursos públicos existiera algún tipo de discriminación algorítmica. Sería algo muy grave. Por eso hay que prestar mucha atención a cada caso”, advierte De Brigard.
Justamente en este punto es donde ha estado el principal problema para consolidar un marco regulatorio contundente en esta industria. Lo que se ha logrado, hasta ahora, han sido una serie de recomendaciones y de marcos éticos que no abordan claramente ninguno de estos dilemas.
De Brigard agrega que uno de los temas centrales tiene que ver con reflexionar más sobre el aprovechamiento de estas herramientas. “La mayoría de estas tecnologías vienen del norte global e intentamos adoptarlas sin pensarlo. Muchas veces no reflexionamos qué tanto estas tecnologías se adecúan a nuestras necesidades. Siento que la perspectiva actual busca solucionar las cosas de manera más superficial. Por ejemplo, el Sisben podría ser un ejemplo. En el país hay escasez de recursos para ayuda sociales y la solución ha sido una herramienta que dice cómo adjudicarlos de forma automática, en vez de preguntarnos cómo subir ese presupuesto”, indica.
El experto además destaca que hay que entender que este tipo de desarrollos son herramientas que más que reemplazar al ser humano le van a facilitar sus tareas. Y en eso concuerda Enrique Gonzalez, profesor de Inteligencia Artificial de la Universidad Javeriana.
“Los avances por ahora están enfocados en inteligencias artificiales especializadas en tareas particulares, algo que se aparta de una inteligencia general como la que tenemos los humanos. Pero en esa especialización hay cosas que pueden llegar a hacer mejor. Eso no debe generar miedos, sino cuestionarnos sobre cómo aprovechar esas herramientas para tener un mundo mejor, donde, por ejemplo, la gente tenga que trabajar menos”, reflexiona.
González detalla los últimos dos proyectos de investigación en los que está trabajando: robots de apoyo programados con algoritmos de inteligencia artificial con capacidad de ayudar al aprendizaje de un niño o a ciertas labores de un adulto mayor. “Es un robot capaz de detectar aburrimiento o estrés. El objetivo es que el niño esté en una zona de confort para que el aprendizaje fluya. Pero uno de nuestros dilemas es que el niño prefiera interactuar con este tipo de apoyos a que con una persona real. Es algo que discutimos mucho con los estudiantes”, cuenta.
Brigard y González concuerdan en algo. Que el principal riesgo no es una autodeterminación de estas inteligencias sino el uso que le den los humanos. “El riesgo es que prefieran utilizarlas solo para bienes particulares”, concluyeron.
Lea tambien: Solo el 15 por ciento de las empresas en el mundo están preparadas para enfrentar un ataque cibernético
Le puede interesar: Firma electrónica y blockchain: las soluciones que hacen más confiable el mundo digital