Suscríbete

Ana Valera: ante la IA, los empleos son como la energía: no se destruyen, se transforman

Ante la IA, los empleos son como la energía: no se destruyen, se transforman

Ana Valera apunta en esta entrevista una serie de medidas muy concretas que debería adoptar la empresa para utilizar la inteligencia artificial con garantías de equidad. Su conclusión es clara: ante la IA, los empleos son como la energía: no se destruyen, se transforman.

Madrid, 23 de mayo. Ana Valera es experta en People Analytics y Recursos Humanos, además de miembro del Consejo Asesor de IA+Igual. En este entrevista explica cómo deberían actuar las empresas para evitar posibles sesgos en el uso de la IA en Recursos Humanos.  

IA+Igual.- La figura de responsable de People Analytics o HR Analytics parecía hasta hace poco exclusiva de grandes empresas. ¿Cómo está evolucionando la necesidad de incorporar a expertos en análisis de datos con la implantación de la IA en Recursos Humanos?

Ana Valera.- Ciertamente, las grandes empresas y consultoras fueron las primeras en contratar perfiles de People Analytics y configurar equipos específicos. Los proyectos de análisis se realizaban a medida, y se precisaba de un conocimiento técnico en herramientas de análisis y visualización. Esto no era una opción para las Pymes: para un área de Recursos Humanos formada por 1 o 2 personas, que subcontrataba algunas funciones (gestión de nóminas, formación, etc.), era inviable que una de ellas se dedicase exclusivamente a los números.

Estamos viviendo una democratización de la IA y la llegada de software asequible que ofrece cada vez más funcionalidades de analítica; todos los profesionales de RR. HH utilizan herramientas que tienen incorporadas funcionalidades de monitorización de métricas e indicadores de IA.

Según un estudio de SD Worx, el 66 % de las empresas españolas está adoptando herramientas de análisis de Recursos Humanos. Por tanto, no solo nos enfrentamos a la incorporación de técnicos que dedican el 100 % de su tiempo al puro análisis de datos de RR. HH en cada vez más compañías, sino también a la necesidad de que todos los perfiles del área de Talento cuenten con habilidades de análisis de datos, en mayor o menor medida, como una herramienta clave que utilizarán en su día a día.

IA+Igual.- En una conferencia expuso un caso concreto de uso de IA en un proceso de selección. Ante CVs exactamente iguales, en los que solo cambiaba el nombre, la inteligencia artificial priorizaba el perfil del hombre frente al de la mujer. ¿Quién debe actuar ante los sesgos conscientes e inconscientes en el área de Capital Humano?

A.V.- En esa simulación, la IA -concretamente ChatGPT- terminó cometiendo ese sesgo porque yo lo entrené con datos sesgados (currículums de candidatos exitosos donde todos eran hombres) y le di instrucciones específicas para que introdujera la variable de sexo como una más en la clasificación de los CVs. Esto nos lleva a un punto importante: ¿Quién era el culpable del sesgo? ¿ChatGPT o yo? Lo que suele suceder es que el profesional de RR. HH comete sesgos en el proceso de selección y lo que hace la IA es perpetuarlos. Por tanto, son varios los actores que tienen la misión de actuar frente a esos sesgos:

  • La alta dirección debe promover y comprometerse públicamente con una cultura basada en la diversidad y la inclusión.
  • Los profesionales de RR. HH somos responsables de analizar nuestras políticas y nuestro histórico de datos para observar si estamos cometiendo este tipo de sesgos y tomar medidas para evitarlos.
  • El equipo legal de la organización cobra un peso relevante para asegurar el cumplimiento de la normativa -con y sin uso de IA en los procesos de selección-.
  • Los diferentes proveedores de software en esta área son un agente clave, actuando en la base de la recogida de información y promoviendo medidas que ayuden a evitar o mitigar esos sesgos.

La misión de mitigar los sesgos

IA+Igual.- ¿Cómo deben actuar todas las personas que tienen la misión de mitigar los sesgos en los procesos de selección?

A.V.- Podemos recomendar diferentes medidas para mitigar los sesgos inconscientes:

  • Uso de CVs ciegos, eliminando información personal y fotografías para evitar la activación de sesgos basados en nombre, nacionalidad, edad, género, apariencia, etc.
  • Formación en sesgos inconscientes a todas las personas que participan en el proceso de selección, no solo a los reclutadores (Ej. hiring managers, entrevistadores técnicos…).
  • Correcto uso de la IA: si bien puede perpetuar sesgos inconscientes heredados de un histórico de datos, bien usada puede ayudar a evitarlos.
  • Diversidad en los equipos de selección: sus diferentes perspectivas pueden ayudar a neutralizar los prejuicios o sesgos individuales.

IA+Igual.- El Reglamento de IA de la UE, aprobado definitivamente el pasado martes, señala que los requisitos relacionados con la gobernanza de datos pueden cumplirse recurriendo a terceros que ofrezcan servicios certificados. ¿Se trata de una recomendación sin más o, por el contrario, es imprescindible para generar confianza en el uso que hace de los datos un modelo de IA que afecta a los trabajadores? ¿Bastaría con la auto certificación?

A.V.- Se puede ver más claro con un ejemplo: cuando contratamos cualquier producto o servicio, ¿Qué nos da más confianza, ver la web donde el propio proveedor nos indica lo bien que funciona o acudir a un análisis tipo OCU donde se comparan de forma neutral una serie de variables y se le da una puntuación? Con la auto certificación de la IA pasa lo mismo: como responsable de People Analytics, siempre preferiría contratar a un proveedor cuya certificación la avala un tercero.

IA+Igual.- En esta cuarta revolución industrial, los perfiles humanistas deben trabajar, codo a codo, con estadísticos, matemáticos, técnicos, etc., para garantizar desarrollos que, además de legales, sean éticos. ¿Es utópica la afirmación de IA+Igual que defiende que la persona debe estar en el centro del algoritmo?

A.V.- Creo que estamos pasando del boom del “cómo” a la era del “para qué”. La IA está aquí y no se va a ir, y hasta ahora ha estado en manos de perfiles técnicos enfocados en el “cómo” hacerla funcionar. Para centrarnos en el “para qué”, debemos incorporar otras miradas y puntos de vista: abogados, psicólogos, filósofos, sociólogos… tiene que participar en esta mesa de trabajo para hacer que la IA sea una herramienta útil que complemente al ser humano. Esta postura que defiende IA+Igual es también la mía y, por eso, me siento feliz por ser parte de este proyecto.

¿Podemos esperar la destrucción de empleo?

IA+Igual.- Frente al temor muy extendido sobre la destrucción de puestos de trabajo y el mal uso de la IA, ¿Cómo ve el horizonte laboral a corto y medio plazo?

A.V.- La Organización para la Cooperación y el Desarrollo Económico mostraba en su informe Perspectivas de empleo 2023  los resultados de una encuesta a 2.000 líderes de empresas y 5.300 empleados del sector financiero y de la industria manufacturera en siete países miembros. Llaman la atención estos datos: el 60 % de los encuestados teme perder su empleo a causa de la IA en los próximos 10 años, mientras que el 63 % cree que la inteligencia artificial les permite realizarse más como profesionales. Es decir, muchos empleados se enfrentan a la experiencia ambivalente de sentir que la IA les ayuda, pero no se les va de la cabeza el peligro de que los sustituya a largo plazo.

El propio informe propone la solución: la capacitación en el uso de IA, en diferentes niveles de complejidad y adopción, se hace imprescindible y debe realizarse tanto en las instituciones educativas como por parte de las empresas empleadoras. También es necesario el acompañamiento de una legislación que vele por los intereses de todas las personas y garantice la inclusión. En definitiva, cada vez cobra más sentido la frase “ los empleos son como la energía: no se destruyen, se transforman”. Si los seres humanos hemos sido capaces de transformarnos en las revoluciones industriales anteriores, ¿Por qué pensamos que esta vez será diferente?

Webinars Campus IA+Igual

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish
Scroll al inicio