Suscríbete

A la caza de los sesgos conscientes e inconscientes

IA+Igual sigue este año ‘a la caza’ de los sesgos conscientes e inconscientes

Con un lenguaje ‘fuerte’, como se estila al hablar de Inteligencia Artificial, en IA+Igual que vamos ‘a la caza’ de los sesgos conscientes o inconscientes para alcanzar nuestro reto: lograr que en Recursos Humanos la IA ponga el foco en la persona.

Madrid, 4 de enero. Frente a noticias y películas apocalípticas sobre un mundo en el que los robots sustituyen a los profesionales, el Proyecto IA+Igual hace hincapié en las oportunidades que ofrece de la Inteligencia Artificial aplicada a la transformación del área de Recursos Humanos poniendo un foco mayor en la persona. Lo explica Marisa Cruzado, fundadora de IA+Igual: “Estamos trabajando con casos reales de empresas para unir inteligencia artificial y recursos humanos a un uso ético y confiable de la IA, garantizando y potenciando todos los avances de los últimos años en materia de diversidad, responsabilidad social, ética en los negocios, etc.”.

El nuevo Reglamento de la Unión Europea sobre Inteligencia Artificial enmarca la búsqueda de los posibles sesgos a través del análisis y verificación de los algoritmos usados: “El mercado laboral se mueve en un nivel de riesgo alto, por lo que todas las cuestiones relativas a Recursos Humanos se rigen por el máximo control y garantías establecidas en la nueva normativa europea”, aclara Jesús Mercader, Catedrático de Derecho del Trabajo y Seguridad Social, y miembro del Consejo Asesor de IA+Igual.

Tanto Mercader como Maite Sáenz, otra de las promotoras de IA+Igual, sitúan el reglamento al mismo nivel que el Reglamento General de Protección de Datos (RGDP), ley que ha producido un impacto extraordinario en nuestra sociedad y ha supuesto un cambio cultural en la gestión de la gestión de datos, igual que lo supondrá el de la IA.

Junto a los imperativos normativos, está la necesidad de avanzar en la implementación del enfoque denominado DEI -Diversidad, Equidad e Inclusión- para atender las demandas de las nuevas generaciones de consumidores, inversores y talento. Y, a pesar de que cada vez son más las empresas que han acuñado políticas DEI, sorprenden los datos preliminares de la I Encuesta sobre el uso de la Inteligencia Artificial en Recursos Humanos: el 57% de los directivos españoles de RR.HH desconoce qué tipo de sesgos inconscientes se pueden trasladar a la IAg y el 60% no se han planteado cómo pueden afectar los sesgos inconscientes a los resultados de herramientas de IA generativa aplicadas a procesos de Recursos Humanos.

Esto lleva al equipo multidisciplinar de IA+Igual a desarrollar con responsabilidad este innovador proyecto para generar confianza en la empresa y la sociedad.

Javier Moscoso explica cómo sesgar la realidad se convierte en un problema en una sociedad como la nuestra, que defiende valores como la diversidad, la inclusión y la igualdad desde el respeto a la diferencia. Y mucho más cuando trasladamos esta forma inconsciente de analizar la información a los modelos de aprendizaje de la IA.

Los sesgos que se le atribuyen a esta tecnología son los que tenemos los seres humanos. Los que durante décadas hemos trasladado a la información que hay en Internet y que refleja, por desgracia, la peor versión de nosotros mismos.

¿Qué sucede con los sesgos?

“Los sesgos nos acompañan como especie humana desde el principio de los tiempos en el momento en que tenemos identidad como individuos y nos reconocemos como diferentes frente a lo que nos rodea. Surgen de manera inconsciente los sesgos y son una herramienta biológica que nos ayuda, sobre todo, a analizar de una manera muy rápida la información para tomar decisiones frente a lo que es diferente y puede entrañar algún peligro”, dice Marisa Cruzado.

Hace miles de años, a los primeros recolectores les resultó muy útil etiquetar como peligroso a aquello que veían a lo lejos moviéndose a gran velocidad: sin pensarlo demasiado, sabían que tenían que huir en dirección contraria. Con el tiempo, los cazadores superaron esa visión sesgada de su entorno y aprendieron a enfrentarse a los animales para poder alimentarse.

A nuestros sesgos más o menos conscientes -por ejemplo, sentir mayor afinidad hacia la gente que se mueve en mi zona de confort por ingresos, creencias, nivel educativo, etc.-, se unen aquellos que van calando en nosotros de forma inconsciente a medida que usamos los omnipresentes algoritmos que mueven la IA.

Las Redes Sociales conocen qué contenidos nos gustan más a través de nuestra interacción y nos los ofrecen en primer lugar, encasillándonos sin que nos demos cuenta; es el mismo mecanismo que está detrás de Netflix, Prime o cualquier plataforma audiovisual: sus sugerencias se basan en lo que consumimos de forma habitual. El mismo buscador de Google, sin ir más lejos, ofrece una visión sesgada en muchas de nuestras búsquedas, promoviendo una visión sexista. Se puede comprobar, por ejemplo, buscando colegial y colegiala .

“Los sesgos están en todos lados y tienen incidencia en las acciones de gobierno, medio ambiente, educación, salud y, obviamente, en recursos humanos -donde se utilizan para funciones tan variadas como la automatización de tareas repetitivas o la gestión de los planes de selección, desarrollo o compensación, entre otras muchas”-, explica Nataly Buslón, consultora de IA en ONU Mujeres y miembro del Consejo Asesor de IA+Igual.

Un ejemplo publicado en la revista Nature muestra que en la plataforma de imágenes IMagnet el 45 % de los datos de entrenamiento son de Estados Unidos, de donde proviene el 4 % de la población mundial. Esa realidad, trasladable a plataformas gráficas de multinacionales, explica la falta de diversidad en las imágenes utilizadas hasta hace poco en las campañas de marketing, en los materiales para clientes, etc. ¿Todo triunfador/a tiene que ser alto/a, rubio/a, joven, delgado/a?

La lucha contra los sesgos es inseparable de la calidad del dato en Recursos Humanos, donde buena parte del histórico de la información disponible es anterior a la era de la igualdad de oportunidades o de la inclusión de personas con discapacidad en el mercado laboral. También es importante la cantidad, diversidad e integridad de los datos (ver El reto de la Inteligencia Artificial generativa en 2024 es la gestión del dato).

Las empresas deben responsabilizarse acerca de cómo se están introduciendo los nuevos sistemas de Inteligencia Artificial y qué tipo de problemas pueden generar las consecuencias imprevistas del uso no responsable de los datos. Igual que Amazon tuvo que recular hace unos años en el uso de la IA en procesos de selección porque el algoritmo utilizado primaba a los ingenieros frente a las ingenieras, otras compañías menos conocidas se han visto obligadas a corregir el algoritmo que sustentaba una nueva aplicación para la medir satisfacción de los empleados al comprobar que discriminaba a determinada población.

Nuestro proyecto se refleja en un white mirror -así se llama nuestra newsletter- porque apostamos por las oportunidades que ofrece la IA controlando los riesgos.

Más información

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish
Scroll al inicio