EMPRESAS
Discapacidad, inclusión e inteligencia artificial: ¿avanzamos para empeorar?
El 76 % de los colaboradores y el 80 % de los ejecutivos en situación de discapacidad la ocultan porque, en principio, no afectaría en nada su desempeño laboral. Sin embargo, ¿qué implicaciones tiene este hecho cuando entra en juego el filtro de una inteligencia artificial (IA) para elegir a un candidato?
Las nociones más recientes sobre discapacidad, como la adoptada por el DANE en Colombia, se refieren a esta como una condición integral de la persona, que reúne déficit, deficiencias o alteraciones en las funciones y/o estructuras corporales, limitaciones en la actividad del individuo y restricciones en su participación. Así, la condición de discapacidad se evidencia en procesos de aprendizaje y aplicación del conocimiento, desarrollo de tareas y demandas generales, comunicación, movilidad y autocuidado.
Existen grados de discapacidad y por supuesto algunas condiciones son más evidentes que otras. La dislexia, las enfermedades autoinmunes como la esclerosis múltiple o las enfermedades mentales crónicas, pueden resultar más sencillas de ocultar a la mirada de un empleador, pero cuando se trata de enfrentar análisis biométricos y de respuesta parametrizada, como los usados por las IA en los procesos de selección o evaluación del desempeño, el asunto puede ser muy distinto.
“Los empleadores que utilizan la IA para las evaluaciones de contratación pueden tomar decisiones injustas sin saberlo. Los datos que recogen, por ejemplo, pueden no incluir consideraciones sobre la discapacidad en todas sus variantes (incluidas las físicas, cognitivas, sensoriales, visibles e invisibles). El diseño importa enormemente. Aquellos responsables de obtener e incluir estos datos deben examinar quién define la discapacidad y cómo lo hace. Los programas que evalúan el rendimiento cognitivo, por ejemplo, podrían no reconocer el papel de la neurodiversidad en las respuestas de los candidatos. Además, las mediciones que evalúan a los colaboradores basándose en la percepción algorítmica de sus expresiones faciales, su tono de voz o sus movimientos pueden penalizar a los candidatos con discapacidad. Por esto, hacer un diseño de la mano de una cultura inclusiva es vital”, señala Alejandra Ferraro, líder de recursos humanos para Accenture LaTam, consultora que, entre otros análisis, generó el estudio ‘Inteligencia Artificial para la inclusión frente a la discapacidad’.
Para empezar, el proceso mismo de desarrollo de IA supone un reto ético, debido a que, sabiendo que cualquier programador podría incluir un sesgo en un sistema –así sea de manera inconsciente– no necesariamente contamos con las herramientas de control que mitiguen efectivamente el riesgo de ‘descarte’ asociadas a las particularidades que pueda tener un individuo.
A propósito, la oenegé Derechos Digitales, que en el pasado mes de abril presentó su proyecto ‘Inteligencia Artificial e Inclusión en América Latina’, señala que “la ausencia de un marco de derechos humanos que guíe y vele por su correcto uso, puede tener consecuencias irreparables, particularmente para comunidades vulnerables e históricamente marginadas”.
Mientras vemos que a través de la tecnología se impulsa el acceso a la información y los espacios laborales para algunos, en paralelo sigue sin clarificarse el cómo trasladar estos esfuerzos a las nuevas prácticas de selección y gestión del talento humano. Aquí es donde entran en juego los líderes corporativos.
Según cifras de Accenture, el 67 % de los líderes a nivel global creen haber construido un lugar de trabajo que permite a sus empleados en situación de discapacidad prosperar con la tecnología, entorno y apoyo adecuados; sin embargo, solo el 41 % de los colaboradores en situación de discapacidad perciben esto como un hecho. Según el mismo estudio, existen cuatro frentes desde los cuales las compañías pueden trabajar para hacer de la IA una herramienta de inclusión y no una ampliadora de la brecha:
· Adopción responsable de la IA. Al igual que se consideran los impactos de estas soluciones en términos de generación o disminución de cargas laborales, también se deberían considerar en relación con la apertura de plazas, los sesgos en la selección e incluso la forma en que se evalúa el desempeño de un colaborador, apostando siempre por poner el cumplimiento, la responsabilidad, la transparencia y la explicabilidad en primer lugar.
· Equidad a través de la IA. Usar enfoques de diseño que incorporen la experiencia vivida por personas en condición de discapacidad para que no solo las herramientas, sino la cultura, sea de inclusión, es reflejo de una verdadera apuesta de equidad en las compañías.
· Accesibilidad en la experiencia. El campo del diseño ha trabajado desde años atrás en el desarrollo de buenas prácticas de accesibilidad, que garanticen, entre otras, que una persona con condiciones diferentes, pueda ejecutar las tareas que requiera a través de las herramientas dispuestas; ahora lo importante no es solo pensar desde la funcionalidad, sino aplicar la misma lógica de experiencia de usuario para estas poblaciones, haciendo grato el proceso de interacción mediada por la tecnología.
· Confianza y privacidad. Más allá de las garantías de seguridad de la información y protección de datos personales que hoy ya se dan por sentadas, es importante que una persona en condición de discapacidad pueda sentirse en confianza al trabajar con una herramienta o en un entorno laboral específico, garantizándole, por ejemplo, privacidad frente a su condición.
En relación con el desarrollo de las IA, “si se incorpora la perspectiva de derechos humanos previo a su implementación, si están sujetas a auditorías externas y si existen mecanismos de trazabilidad respecto a las decisiones tomadas por los sistemas”, se estará avanzando en transparencia y en un ejercicio de inclusión a través de ellas y no de ampliación de las brechas por su causa, según concluye Derechos Digitales.