OPINIÓN
Inteligencia artificial y derechos humanos
Los algoritmos artificiales tienen el potencial de superar los instintos y la intuición en que se basan muchas decisiones humanas, siempre que se haga un control riguroso para que no reproduzcan los sesgos de sus creadores.
Los humanos dependemos cada vez más de los algoritmos artificiales para tomar decisiones. Es muy probable que en la última semana usted haya preferido delegar en Waze la responsabilidad de escoger la ruta más rápida para llegar al trabajo, haya seguido una sugerencia de Netflix sobre qué película ver o haya acatado la recomendación de Rappi para pedir su almuerzo a domicilio.
Esto ocurre esencialmente porque esas aplicaciones, que utilizan tecnologías de inteligencia artificial, nos facilitan la vida al ahorrarnos tiempo. Sin embargo, esos algoritmos que sustituyen a la voluntad humana han sido diseñados también por humanos que definen sus criterios decisionales.
Así, por ejemplo, Waze escoge por lo general el camino más rápido, pero no le importa el consumo de combustible (a veces escoge trayectos mucho más largos) ni la seguridad de la ruta (ya hubo casos de personas que perdieron la vida por seguir la vía peligrosa sugerida). Netflix recomienda producciones muy parecidas a las vistas previamente y, con ello, genera una “filter bubble” o caja de resonancia que le impide al televidente innovar con géneros y preferencias distintas. Y Rappi induce el consumo de comidas similares a las anteriormente pedidas, con lo cual una persona obesa es condenada por la aplicación a los malos hábitos alimenticios.
Estos ejemplos nos muestran que los algoritmos, al igual que las personas que los programan, tienen sesgos de los que generalmente no somos conscientes. El problema se vuelve aún más complejo cuando ya no solamente el sector privado, sino el Estado, implementa algoritmos que tienen sesgos y que pueden vulnerar los derechos humanos de sus destinatarios. Veamos un ejemplo de cada sector.
Amazon se vio obligado a desmontar hace dos años un software de selección de personal que discriminaba a las mujeres programadoras. Esto sucedió porque el algoritmo había sido entrenado con datos de la última década, en la cual las mujeres tenían una presencia mínima en el mercado laboral de los ingenieros de sistemas. Las mujeres tienen hoy una presencia de apenas el 15 por ciento entre los científicos de datos. Esta falta de diversidad agrava el problema de los sesgos sexistas que presentan los algoritmos de inteligencia artificial porque impide que las afectadas participen en su diseño.
En Estados Unidos, el sistema judicial se alimenta de varios softwares que predicen el riesgo de reincidencia criminal y son usados para informar las decisiones de fiscales y jueces sobre la libertad de las personas. Una auditoría hecha por la organización sin ánimo de lucro ProPublica detectó que el programa perfilaba más drásticamente el riesgo de los afroamericanos que el del resto de la población. En el condado de Broward, Florida, fueron analizados los puntajes asignados a más de siete mil personas arrestadas. El análisis encontró que los afroamericanos tuvieron una probabilidad 77 por ciento mayor de ser considerados de alto riesgo de cometer un crimen violento futuro y 45 por ciento más grande de incurrir en un crimen de cualquier tipo. En este caso, los derechos a la presunción de inocencia, a un juicio justo y a la igualdad se vieron vulnerados por el uso de una tecnología que no fue suficientemente auditada antes de su implementación.
No se espera que las decisiones que toma la inteligencia artificial sean perfectas, pero sí que al menos sean mejores que las del humano, gracias a su mayor capacidad de procesamiento de la información. Y los algoritmos artificiales tienen el potencial de superar los instintos y la intuición en que se basan muchas decisiones humanas, siempre que se haga un control riguroso para que no reproduzcan los sesgos de sus creadores y se aminoren los riesgos de “opacidad”, “injusticia” y “escala” que representan.
Como medida jurídica urgente se necesita construir una agenda de derechos humanos en relación con la inteligencia artificial. No se trata aquí de promover una postura hostil al desarrollo tecnológico, sino de evitar su avance sin una estrategia de mitigación del riesgo que termine por multiplicar los casos de “estupidez artificial” masificada (los cuales, como se vio, también existen).
El primer paso en esta dirección debe ser la ampliación del marco general de derechos que establece el sistema internacional de derechos humanos actual, para así prevenir las amenazas que plantea la inteligencia artificial a la dignidad humana, la responsabilidad democrática, la privacidad, el acceso a la información, la igualdad y el derecho a la no discriminación.
Un segundo paso será generalizar la política de “derechos humanos por diseño” (“humans-rights-by-design”): la exigencia de que los creadores de cualquier nueva tecnología de inteligencia artificial se comprometan a que opere dentro de un marco respetuoso de los derechos humanos, aunque ello reduzca la rentabilidad del modelo de negocio. Esta política puede incluir, entre otras obligaciones, la de ofrecer un “manual” para el uso de la nueva herramienta que visibilice las variables utilizadas para construir el modelo, señale los posibles sesgos en que podría incurrir y establezca los protocolos de seguimiento para facilitar la depuración del algoritmo.
Los algoritmos artificiales podrían mejorarnos la vida, pero también podrían empeorar nuestras sociedades si no responden a protocolos de transparencia en su diseño y no son objeto de un seguimiento constante que los mejore.
Para terminar, pensemos en que Waze podría incorporar variables de seguridad y sostenibilidad ambiental para evitar los cuadrantes más peligrosos y sugerir rutas más demoradas pero más costoeficientes en términos ecológicos. Que Netflix podría permitir que el usuario active una función de “descubrimiento de nuevos géneros” cuando quiera innovar en sus gustos. Y que Rappi podría ofrecer una funcionalidad de “alimentación sana” para alertar al comensal cuando está consumiendo demasiada azúcar o calorías y sugerirle alternativas más saludables.
Yendo aún más lejos, imaginemos un algoritmo de predicción del riesgo de reincidencia criminal que, en lugar de reafirmar los sesgos que ya tiene el sistema judicial en el que se implementa, esté diseñado específicamente para contrarrestarlos: uno que pondere con precaución estadística variables sensibles como la raza, la debilidad socioeconómica, los problemas familiares y la baja escolaridad; que incorpore variables críticas por lo general ignoradas, como la salud mental del ofensor, para considerar alternativas de tratamiento no carcelario; que enriquezca el juicio de los operadores judiciales con información relativa al contexto del procesado que provenga de sus amigos y entorno familiar; y, en últimas, que les haga ver que una condena demasiado drástica podría terminar por fortalecer el círculo criminal.
“El progreso es la realización de utopías”, escribió Oscar Wilde. La buena noticia es que la inteligencia artificial bien diseñada no es una utopía, sino el resultado del trabajo humano transdisciplinario y en equipo.