Suscríbete

IA+Igual único proyecto empírico que audita el uso de la IA en RR. HH

IA+Igual, único proyecto empírico sobre la IA en RR. HH para detectar posibles sesgos

Tras hacer networking con investigadores de todo el mundo en Japón, validamos nuestra intuición: IA+Igual es el único proyecto empírico de innovación social a nivel global que une a empresas e investigadores en el proceso de auditar casos reales de uso de la IA para detectar posibles sesgos. 

Madrid, 6 de junio. Marisa Cruzado Collado y Maite Sáenz, promotoras de IA+Igual, han presentado el modelo de certificación externa de IA utilizada en RR. HH. en el XVI Simposio Internacional sobre Inteligencia Artificial, organizado por JSAI, la sociedad japonesa de IA.

Ante expertos desarrolladores de todo el mundo, IA+Igual participó en un workshop sobre el impacto de los sesgos en las herramientas de IA aplicadas al ámbito de los Recursos Humanos. Intervinieron en un intenso debate junto a Carlotta Rigotti, de la Universidad de Leiden; Budi Ardianto, profesor de Derecho en la Universidad de Gadiah Madis en Indonesia; Hiroto Shimizu, profesor de la Universidad de Nagoya en Japón y Akshaya Kamalnath, profesora de Derecho en la Universidad Nacional de Australia.

Desafío global

El Proyecto IA+Igual es único a nivel global y abre un camino de innovación que empresa y sociedad demandan. Para todos los investigadores que participaron en la sesión del simposio de JSAI, la función de recursos humanos se enfrenta al reto de introducir de manera eficiente, transparente y segura la IA en las organizaciones. La falta de hoja de ruta es todavía un problema a resolver en todo el mundo.

Los investigadores manifestaron su interés en formar parte de la red de embajadores del Proyecto IA+Igual. El objetivo es fomentar la concienciación de un uso legal y ético de la IA en el área de Recursos Humanos que facilite una adopción diversa e inclusiva de la nueva tecnología y frene el miedo a la implantación de la IA. “Esta nueva tecnología, como las que se han ido desarrollando a lo largo de la historia -desde el invento de la imprenta, por ejemplo, hasta internet, más reciente- no es buena ni mala. Proporciona una herramienta que facilita la adopción de decisiones que recae en personas y es el ser humano quien tiene que velar y decidir por un correcto uso”, explica Marisa Cruzado.

Libro Blanco

En este contexto, cobra especial relieve el Libro Blanco con recomendaciones de uso de la IA en Recursos Humanos que está elaborando el equipo de investigadores de DATAI, Universidad de Navarra, con la colaboración de los investigadores y el Consejo Asesor de IA+Igual. Aunque la mayoría de las empresas disponen de un código ético, se enfrentan a una tecnología que previsiblemente tendrá un impacto sin precedentes en la vida de sus trabajadores.

“No es lo mismo auditar un algoritmo en Recursos Humanos que en otras áreas. Los RR. HH. impactan fundamentalmente a las personas, por lo que este tipo de proyectos deben abordarse desde una perspectiva multidisciplinar y vertical. Esto implica analizar detalladamente las características intrínsecas de cada aspecto para poder aportar de manera efectiva”, asegura Iván Cordón, director de Innovación del Instituto de Ciencia de los Datos e Inteligencia Artificial (DATAI).

El Libro Blanco parte de la importancia de contar con una metodología clara y práctica que pueda ser usada en las empresas para mejorar, complementar y validar el desarrollo de la IA de manera fiable, ética y humana. “Muchos proyectos hablan de ética de manera genérica, pero nosotros queremos concretarlo: vamos a crear una hoja de ruta para auditar algoritmos de forma empírica y concreta. Así, cada empresa podrá usar esta guía para auditar y diagnosticar sus herramientas, determinando si están bien o necesitan mejoras”, concluye Cordón.

Información relacionada

Diálogo social

Webinars Campus IA+Igual

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish
Scroll al inicio