Suscríbete

¿Entramos en la era de Sesgos²?

¿Entramos en la era de Sesgos²?

El fútbol es un buen campo para testar prejuicios sexistas, racistas, etc. En el terreno de la empresa, nos encontramos ante un paradigma: en los procesos de Selección de Personal, el uso de la Inteligencia Artificial puede contribuir tanto a eliminar los sesgos como a fomentarlos.

Madrid, 16 de octubre. ¿Entramos en una era en la que se multiplican los sesgos? Hay personas que se sientan atraídas por la diversidad y tienen una visión abierta ante todo lo que es diferente. Pero es un hecho que, de forma consciente o inconsciente, algunos seleccionadores de talento han tendido a favorecer a los candidatos que les resultaban más afines. 

A esto hay que añadir la gama de sesgos coyunturales: ahora que se persigue la paridad de sexo, algunas compañías contratan a más mujeres en igualdad de condiciones; otras buscan talento de diferente raza o nacionalidad para prestar mejor servicio a los clientes de todo el mundo… En lo que coinciden la inmensa mayoría es en evitar el talento senior.

Para combatir estos sesgos, muchas organizaciones apuestan por utilizar prácticas de selección de personal más objetivas y capacitar a sus equipos en diversidad e inclusión. Pero también están recurriendo a herramientas basadas en datos y algoritmos con el objetivo de minimizar los prejuicios inconscientes.

¿Qué pasa con los algoritmos?

Aunque la intención sea positiva, hay que partir de una idea muy clara: un algoritmo necesita ser programado por un técnico. Si a este, por ejemplo, le piden que introduzca datos históricos basados en decisiones de contratación sesgada, el algoritmo replicará los prejuicios en los nuevos procesos. Lo mismo sucede si se le retroalimenta en base a evaluaciones de desempeño sesgadas o si encuentra correlaciones inesperadas entre variables -identifica el código postal con el origen étnico-. Son solo algunos ejemplos. 

También está el gran tema de la transparencia: los algoritmos de aprendizaje profundo son inherentemente complejos y difíciles de entender y, por tanto, resulta complicado identificar y corregir los sesgos.

El Proyecto IA+Igual está realizando una auditoría de los algoritmos de selección que usan algunas empresas para ayudarles a detectar posibles sesgos. Este trabajo de investigación se desarrolla de la mano de un Consejo Asesor, que incluye a expertos en ética y diversidad, entre otros, para favorecer la digitalización ética.

Si quieres conocer cómo avanza nuestro proyecto, síguenos.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish
Scroll al inicio