Suscríbete

inteligencia artificial

Cinco pasos para implantar la IA en Recursos Humanos

La inteligencia artificial puede desempeñar en Recursos Humanos un papel fundamental al analizar datos para mejorar la comprensión de cómo funcionan las empresas y tomar decisiones más informadas. La clave reside en seguir las recomendaciones de un grupo de expertos de IA+Igual.

Madrid, 9 de julio. El Informe Negro sobre Blanco acerca de El impacto de los sesgos en Recursos Humanos a través de la IA de Marisa Cruzado, CEO de IA+Igual, ha tenido un gran impacto. La autora lo ha presentado en cinco congresos, marcando el punto de partida de la hoja de ruta en cinco pasos para combatir los sesgos cuando se utiliza la inteligencia artificial en Recursos Humanos.

El problema no es la existencia de los sesgos, si no la voluntad de erradicarlos o, cuanto menos, minimizarlos. Nos enfrentamos a un punto de inflexión ante el incipiente uso de inteligencia artificial en Recursos Humanos: antes de que se sigan perpetuando los grandes “ismos” de las últimas décadas -racismo, sexismo, edadismo-, tenemos que poner en juego todas las herramientas necesarias para apostar por una digitalización ética y equitativa. No es fácil pero sí posible, como explican los expertos de IA+Igual.

Ética y regulación

La aprobación del Reglamento de Inteligencia Artificial europeo (RIA) ha marcado un hito para defender los derechos humanos de las personas, en concreto, de los trabajadores. Pero el cumplimiento de esta normativa es un paso crucial pero no suficiente por varias razones. “Habitualmente, pero más todavía en la época de la IA, la regulación casi siempre llega más tarde que los cambios disruptivos debido a la extraordinaria velocidad de su desarrollo. La tecnología de IA está en constante evolución, y la normativa puede no ser lo suficientemente ágil para adaptarse rápidamente a nuevos desarrollos y desafíos emergentes”, explica Ignacio Ferrero, profesor de la Universidad de Navarra.

En un proyecto colaborativo, como IA+Igual, destaca este economista filósofo, “el desarrollo técnico bien realizado, el expertise tecnológico, va de la mano de un enfoque multidisciplinar porque la inteligencia artificial es tan compleja como el ser humano y demanda un gran capital intelectual diverso para acometer los retos y los desafíos de nuestra propia creación de manera inteligente”.

Yolanda Gutiérrez, matemática y gran experta en Recursos Humanos, apela directamente a la ética por una razón clara que nos lleva al siguiente punto del itinerario: “Las decisiones que se tomen en el departamento de RR. HH en base al uso de los algoritmos y la IA afectan directamente a las personas y la supervisión humana será siempre imprescindible”.

Sesgos en el ADN

“En el ámbito del mercado laboral y los recursos humanos debemos poner el foco en los denominados ‘sesgos inconscientes’. Son suposiciones, creencias o actitudes adquiridas que tenemos, pero no necesariamente somos conscientes de ellos. Si bien los sesgos son una parte normal de la función cerebral humana, a menudo pueden reforzar ciertos estereotipos produciendo más daño que beneficio a las empresas en lo que respecta a contratación, gestión de personas y toma de decisiones”, afirma Marisa Cruzado.

El problema no es la existencia de los sesgos, si no la voluntad de erradicarlos o, cuanto menos, minimizarlos. Nos enfrentamos a un punto de inflexión ante el incipiente uso de inteligencia artificial en Recursos Humanos: antes de que se sigan perpetuando los grandes “ismos” de las últimas décadas -racismo, sexismo, edadismo-, tenemos que poner en juego todas las herramientas necesarias para apostar por una digitalización ética y equitativa. No es fácil pero sí posible, como explican los expertos de IA+Igual.

Supervisión humana continua 

Una de las grandes lecciones de este proyecto empírico de casos de uso de IA en Recursos Humanos es que las organizaciones deben contar con “unos procedimientos de supervisión exhaustivos, que aseguren que los datos de entrenamiento están libres de sesgos y que validen las decisiones tomadas por los algoritmos”, añade Yolanda Gutiérrez.

Iván Cordón, director de Innovación de DATAI, da una vuelta de tuerca a este concepto: “Tenemos que ser conscientes y muy críticos con los procesos y con la incorporación de IA a los procesos de recursos humanos en la empresa. Debemos seguir la Inteligencia Artificial centrada en personas, es decir, una IA que sea justa y no discriminatoria, que no tenga sesgos en sus decisiones y que permita una explicabilidad, en la medida de lo posible, de cómo se lleva a cabo las decisiones o recomendaciones finales”.

Gestión de datos

El entrenamiento de los sistemas de IA parte de los datos, o “respira datos”, como le gusta explicar a Jesús Mercader, catedrático de Derecho del Trabajo y Seguridad Social de la Universidad Carlos III . “Si un ser humano respira en un ambiente contaminado, contrae enfermedades, y si un sistema de IA respira en un sistema donde los datos están sesgados, lógicamente va a sesgar el sistema”.

“Hay que tener claro que la inteligencia artificial no tiene emociones, y si las tienen no es porque las tengan los sistemas, sino porque nosotros se las trasladamos de una forma numérica, a través de esos datos y esas informaciones. Este es un ejemplo de cómo los humanos influimos en la IA. Por lo tanto, la lucha contra los sesgos debe ser uno de los objetivos centrales en todo este proceso. Conseguir que el aire que respire la IA sea un aire lo más puro posible”, añade Mercader.

En primer lugar, podemos tener en cuenta los actores que tienen la misión de actuar frente a esos sesgos, como explica la experta en People Analytics Ana Valera:

  • La alta dirección debe promover y comprometerse públicamente con una cultura basada en la diversidad y la inclusión.
  • Los profesionales de RR. HH somos responsables de analizar nuestras políticas y nuestro histórico de datos para observar si estamos cometiendo este tipo de sesgos y tomar medidas para evitarlos.
  • El equipo legal de la organización cobra un peso relevante para asegurar el cumplimiento de la normativa -con y sin uso de IA en los procesos de selección.
  • Los diferentes proveedores de software en esta área son un agente clave, actuando en la base de la recogida de información y promoviendo medidas que ayuden a evitar o mitigar esos sesgos.

A continuación, Ambrosio Nguema, senior data & NLP, LLM Engineer y desarrollador, ofrece algunas claves técnicas para generar datos diversos y de calidad que eviten resultados sesgados en RR. HH:

  • Implementar el uso de técnicas de desanonimización y equilibrio de los datos para minimizar las distorsiones-
  • Realizar revisiones o auditorías periódicas de los algoritmos.
    Tener en cuenta los marcos de gobernanza de IA.
    Colaborar con expertos en diversidad para asegurar que los sistemas sean justos y representativos de la diversidad de la fuerza laboral.
    Contar con la participación de grupos distintos en el diseño y evaluación de estas tecnologías.
    Proteger la privacidad y los datos personales que se empleen.
Observar y aprender

IA+Igual analiza el uso de la Inteligencia Artificial en RR. HH desde el máximo número de ángulos y perspectivas. Todo ello con el fin de realizar un estudio empírico del impacto de los sesgos en los modelos de aprendizaje de los algoritmos utilizados en el mercado laboral. Ya está desarrollando un libro blanco con recomendaciones para un modelo de certificación y sello de calidad específico del ámbito laboral.

Cruzado concluye con el objetivo último de esta hoja de ruta para combatir o mitigar los sesgos: “Impactar definitivamente en el ámbito laboral con un modelo que permita el acceso equitativo de todas las personas, sean cuales sean sus capacidades, su procedencia, edad, etcétera, poniendo siempre a la persona en el centro de la IA Los sesgos son humanos, pero nuestra labor es concienciar a la empresa de que, en primer lugar, debe mitigarlos mientras se desarrolla un modelo de IA para Recursos Humanos; y, en segundo lugar, debe tratar de corregirlos en las posteriores fases de entrenamiento”.

Información relacionada

Diálogo social

Webinars Campus IA+Igual

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish
Scroll al inicio