Suscríbete

IA en las empresas, por Félix villar

“La incorporación de la IA en las empresas es imparable y recursos humanos no será una excepción”

En la era de la transformación digital, donde la IA emerge como una fuerza disruptiva en múltiples sectores, es fundamental abordar su integración con cautela y consideración, especialmente en ámbitos tan sensibles como Recursos Humanos. El desconocimiento de las posibilidades de la IA en la gestión de talento o la falta de certeza legal en un ámbito tan delicado pueden convertirse en obstáculos para las empresas que desean incorporar algoritmos.

Madrid, 27 de marzo. Conversamos con  Félix Villar, socio de IN2 y miembro del Consejo Asesor de IA+Igual.  Este ingeniero informático, asegura que la incorporación de la IA a todos los ámbitos de las empresas es “imparable”. Esto refuerza la necesidad de adoptar una visión pluridisciplinar que facilite una reflexión profunda sobre el uso y los objetivos de las herramientas de IA, así como sobre las implicaciones reputacionales y legales que conlleva su implementación. Asimismo, es crucial mantener un enfoque en la diversidad y la inclusión como pilares fundamentales para respaldar la aplicación ética de la IA en la gestión de Recursos Humanos.

IA+Igual.-  ¿Cómo describiría el impacto actual de la Inteligencia Artificial en el ámbito de los recursos humanos?

Félix Villar.- Hace años que ya se aplica la Inteligencia Artificial “predictiva” en las áreas productivas de grandes empresas, sin embargo, en el ámbito de los departamentos de RR. HH., y según vemos en las reuniones que mantenemos con sus responsables, este tipo de inversiones no se suelen desplegar con igual grado de intensidad. Entendemos que la dificultad de justificar un ROI claro, y la complejidad de disponer de los datos (en muchos casos sensibles) necesarios para poder enfrentarse a proyectos de People Analytics e IA, son los motivos que justifican este menor grado de penetración. Otras barreras de entrada son el desconocimiento de las posibilidades de la IA y la incerteza legal en un ámbito tan delicado como los RR. HH. En cualquier caso, la incorporación de la IA en todos los ámbitos de las empresas es imparable, y en RRHH no será una excepción.

La importancia de la calidad del dato

IA+Igual.- ¿Qué les falta a los departamentos de RR. HH. para ser realmente eficientes implantando herramientas de IA?

F.V.- Primero deben conocer las posibilidades que ofrece la IA aplicada a RR. HH. En segundo lugar, deben entender que sin datos de calidad e información bien estructurada es muy difícil, no sólo implantar Inteligencia Artificial, si no también cualquier proceso de People Analytics. Un tercer punto relevante es reflexionar sobre el uso y los objetivos que perseguimos implantando herramientas de IA, y las repercusiones reputacionales y legales que tiene su aplicación.

IA+Igual.- Entonces, ¿Cuál considera que será el nivel de implantación de la IA en la función de RR. HH. a cinco años vista?

F.V.- Estoy seguro de que la implantación de la IA en todos los procesos de la organización es imparable, y también lo será en el área de recursos humanos. Quizás el ritmo sea algo diferente en comparación a otras áreas, pero, igualmente será imprescindible para competir en eficiencia y productividad. La experiencia que estamos obteniendo en el proyecto IA+Igual me reafirma en esta opinión. Estamos observando, por ejemplo, que las empresas donde la gestión de RR. HH. forma parte del “core” de la compañía, están más avanzadas e interesadas en implantar soluciones de IA.

IA+Igual.- ¿Cuáles son los desafíos más importantes que enfrentan las empresas al implementar soluciones de IA en este ámbito?

F.V.- Los desafíos son múltiples, pero quizá uno de los más importantes es comprender que las herramientas de IA son solo eso, herramientas, que nos complementan y nos ayudan a tomar decisiones informadas. Sin embargo, la última decisión deberá ser siempre supervisada por un ser humano. No podemos transferir el peso de nuestras decisiones a una herramienta, aunque sea de IA, y menos en un ámbito tan sensible como es el laboral.

Sensibilización, formación y certificación

IA+Igual.- Como miembro del Consejo Asesor, ¿Cómo cree que el proyecto IA+Igual puede contribuir a abordar posibles sesgos y discriminaciones en los algoritmos de IA utilizados en RRHH?

F.V.- Creo que el proyecto ayudará enormemente en tres aspectos diferentes. Primero, sensibilizando a los profesionales de RR. HH. en todo lo relativo a sesgos y discriminación. Segundo, formándolos en los principios básicos de la IA, sus usos y cómo podemos trasladar inconscientemente los sesgos y la discriminación a estas herramientas. Y por último, proporcionándoles un documento (el Libro Blanco de IA+Igual) que les permitirá tener un manual de buenas prácticas. Con toda esta información, los profesionales del ámbito tendrás más seguridad para abordar un proyecto de implantación de una herramienta de IA, con una visión 360º, que minimice los sesgos, promueva la equidad y elimine el riesgo reputacional.

IA+Igual.- ¿Qué papel juega la diversidad y la inclusión en el diseño y la implementación de sistemas de IA??

F.V.- Un papel esencial. Garantizar la diversidad y la inclusión debe ser uno de los ejes sobre los que se sustenta la aplicación de IA en RR. HH. Precisamente, uno de los paradigmas que ofrece esta tecnología es ayudar a gestionar la diversidad. Hasta ahora, aunque las empresas están formadas por personas diversas, la gestión de personas sigue siendo uniforme, el mismo modelo de gestión, con matices, pero igual para todos. Sin embargo, la capacidad de análisis de la IA y su velocidad, permitirá establecer modelos de gestión personalizados, mucho más ajustados a esa diversidad. El riesgo es perder el sentido común. Como ejemplo, recientemente hemos conocido el caso de la IA de Google (Gemini). Al entrenar el modelo haciendo determinados ajustes buenistas, el resultado fue que, ante la petición de que generara imágenes de soldados alemanes del año 1943, presentaba soldados negros o mujeres orientales con uniformes alemanes, en aras de la inclusión. La IA no es tan inteligente como pensamos y no fue capaz en este caso, de contextualizar la complejidad de la especie humana.

IA+Igual.- ¿Dónde radica la complejidad del proceso de auditoría de un algoritmo?

F.V.- Destacaría dos aspectos. Disponer de los datos con los que se ha entrenado el algoritmo, y que han permitido crear el modelo. O en su defecto, la información suficiente sobre los mismos para poder crear un conjunto de datos sintéticos que nos permitan evaluarlo. Y la necesidad de disponer de la visión pluridisciplinar, imprescindible para hacer una evaluación 360º del algoritmo, donde se incluyan todos los aspectos relevantes de la “vida” del mismo:  origen, motivación, objetivos y uso, conveniencia, ética, equidad, legislación, sesgos, explicabilidad, ciclo de vida; y todos los aspectos técnicos y cuantitativos relativos a una auditoría BIAS. Esta visión pluridisciplinar exige, por tanto, disponer de un equipo amplio que garantice esa visión 360º.

IA+Igual.- ¿Qué impacto cree que podría tener el éxito del proyecto IA+Igual en el futuro de la IA aplicada a recursos humanos?

F.V.-  Esperamos generar conocimiento que ayude a los profesionales de recursos humanos a convertir a la IA en un eficiente copiloto de su función. Crear un marco de certificación que pueda garantizar que las herramientas que utilizan son confiables y responden a sus objetivos de equidad, diversidad e igualdad de oportunidades. Y sobre todo, contribuir a impulsar el papel transformador que tienen dentro de la organización.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish
Scroll al inicio