Suscríbete

Cómo evitar IA discriminatoria en RR. HH, Cómo evitar que la IA genere nuevas formas de discriminación en RR. HH

Cómo evitar que la IA genere nuevas formas de discriminación en RR. HH

En el caso de Recursos Humanos, la ética sigue siendo la gran olvidada al trabajar con algoritmos. Alberto García Galindo, investigador de UNAV, explica en esta entrevista qué deben hacer las empresas para evitar que el uso de la IA genere nuevas formas de discriminación en los procesos relacionados con los empleados

Madrid, 4 de abril. La inteligencia artificial (IA) avanza más lento de lo que se pronosticaba hace unos meses, pero es indudable que ya interviene en procesos que afectan a nuestro día a día. En estos casos, se plantean diversos desafíos éticos y uno de los más significativos, para Alberto García Galindo, es la posible discriminación derivada de decisiones basadas en sistemas entrenados sobre datos sesgados de la sociedad.

Este experto en Machine Learning de DATAI, Instituto de Ciencia de los Datos e Inteligencia Artificial de la Universidad de Navarra, afirma que en el área de Recursos Humanos puede afectar al creciente número de empresas que utilizan la IA en los procesos de selección de personas y programación de entrevistas, en la retención del talento, etc. Esto permitirá al personal del área de Talento dedicar más tiempo a aspectos más personales y estratégicos.

El gran desafío

Otro gran desafío, para García Galindo, gira en torno a la explicabilidad de los modelos, más aún cuando herramientas sofisticadas como ChatGPT a menudo actúan como cajas negras cuyas decisiones son difíciles de entender. “A la hora de garantizar la transparencia y la rendición de cuentas en los sistemas de inteligencia artificial, existen diferentes mecanismos que pueden contribuir al desarrollo de sistemas de IA responsables y transparentes. Por un lado, algunas leyes como el Reglamento General de Protección de Datos establece que si un algoritmo es el encargado de proporcionar una decisión automatizada que produzca efectos jurídicos o prive de servicios a un individuo, éste debe tener la posibilidad de conocer cómo y por qué se ha tomado dicha decisión», explica el investigador en Machine Learning.

Existen además otras opciones, como la elaboración de guías de buenas prácticas, tanto por parte de instituciones públicas como privadas, que establezcan marcos éticos que enfaticen ciertos principios como la propia transparencia.

García Galindo advierte de la necesidad de que “las organizaciones y, más concretamente, los responsables de la toma de decisiones basadas en algoritmos, sean conscientes de que este tipo de modelos puedes estar sesgados. Es necesario tomar las medidas adecuadas que van desde la construcción de equipos multidisciplinares, en los que perfiles menos comunes como humanistas o sociólogos sean los que planteen los dilemas éticos, hasta la integración de técnicas de aprendizaje automático en las tareas que, los perfiles técnicos, llevan a cabo a la hora de construir algoritmos”.

Un ejemplo. En el caso de la evaluación del desempeño, un algoritmo puede ser útil para alertar cuando un empleado tenga cierto descontento, para luego evaluar su caso y conocer cuáles son las razones de ese desempeño. Si el número de empleados a evaluar es muy grande, el potencial de la IA para analizar grandes volúmenes de datos es capaz de dar pistas de problemas más serios, como la falta de organización en algún departamento específico dentro de la empresa.

Desde otro ángulo: si tenemos en cuenta la planificación de la carrera profesional, permite elaborar planes específicos mucho más personalizados que hagan hincapié tanto en las necesidades genéricas de la empresa como en los puntos a mejorar particulares de un empleado.

Los retos en la implantación ética de la IA

Pero muchos trabajadores recelan de este uso de la IA como, en el pasado, lo hicieron durante la revolución industrial cuando llegaron las máquinas a la industria. Existe un temor bastante generalizado sobre el reemplazo de muchos empleos derivado de la implementación de sistemas basados en algoritmos de IA, algo que, para García Galindo, está lejos de ser así. “Aunque haya algunas tareas que se redefinan, esto implicará necesariamente el nacimiento de otras tantas, que necesitarán de empleados con nuevos perfiles y la definición de nuevos tipos de trabajo”, asegura.

Para avanzar hacia una digitalización ética y equitativa, este investigador pone de relieve la importancia de “evaluar, a la hora de construir un modelo, las métricas y sesgos desde un punto de vista analítico, puesto que así podremos estudiar si las predicciones generadas fallan sistemáticamente con mayor frecuencia sobre grupos y minorías que históricamente han sido discriminados”.

Además, añade, “todavía es más importante aún analizar cómo, desde el momento en que un sistema genera una predicción, ésta es utilizada dentro de la organización para tomar una decisión. Ahí no será la máquina la que decida, sino la persona encargada. Y si la decisión es discriminatoria, será esa persona la que tendrá que rendir cuentas”.

Libro Blanco

DATAI colabora con IA+Igual en la investigación empírica del uso de casos reales con un enfoque multidisciplinar y diverso para establecer una serie de buenas prácticas que culminarán con un Libro Blanco que elaborará este instituto de la Universidad de Navarra sobre metodologías de IA en el campo de Recursos Humanos. “Es un proyecto pionero de innovación social que hace especial hincapié en la parte ética, a menudo descuidada e incluso desconocida a la hora de trabajar con algoritmos”, subraya García Galindo.

En DATAI confían en que este libro suponga un gran hito y se convierta en un referente a la hora de implantar IA en Recursos Humanos. El instituto trata de contribuir al desarrollo de una inteligencia artificial justa y ética desde dos enfoques diferentes:

  • Investigación: cuenta con varias líneas enmarcadas en Aprendizaje Automático Equitativo, incluidas dos tesis doctorales que abordan esta problemática desde puntos de vista técnicos y matemáticos.
  • Transferencia: a través de proyectos como IA+Igual, en los que tratamos de extender nuestro ámbito de actuación a problemas del mundo real y colaborar con diferentes organizaciones para abordar casos de uso específicos.

2 comentarios en “Cómo evitar que la IA genere nuevas formas de discriminación en RR. HH”

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish
Scroll al inicio