Suscríbete

Ignacio Ferrero

Usar la IA en RR. HH requiere poner a la persona en el centro de atención

Los grandes desafíos de la IA se abren al desarrollo y bienestar integral de la persona en el trabajo. Ignacio Ferrero, del equipo de DATAI, subraya que  el mundo empresarial real es compatible con una profunda concepción ética del área de Recursos Humanos.

Madrid, 19 de junio. Ignacio Ferrero Muñoz es profesor de Ética Empresarial y Liderazgo de la Facultad de Ciencias Económicas y Empresariales de la Universidad de Navarra (UNAV), donde actualmente investiga en la ética de la virtud y la IA y sobre las motivaciones y el propósito en el lugar de trabajo.

IA+Igual.- La implantación de la IA en las empresas, sobre todo en Recursos Humanos, presenta grandes desafíos desde el punto de vista ético. ¿Cree que el código de valores corporativo es suficiente para dar respuesta a estos retos?

Ignacio Ferrero-. Es evidente que tener un código de valores ayuda enormemente en la resolución de dilemas éticos en las empresas, porque establece unas guías claras de qué debe estar presente en la toma de decisiones. Cualquier decisión empresarial suele entrañar un trade-off entre ventajas e inconvenientes, con la disyuntiva de favorecer a unos stakeholders frente a otros, y el código de valores clarifica muchas veces estas decisiones. Pero los valores, por definición, son generales y entran en juego dos elementos en la aplicación del valor en riesgo en cada decisión: por un lado, directrices más específicas y aplicables, adaptadas a los contextos y tecnologías particulares involucrados; y, por otro, la persona, específicamente la prudencia personal, que es la virtud necesaria en el gobierno y en la toma de decisiones.

Para que un directivo tome decisiones prudentes debe combinar un análisis detallado de los antecedentes de cada dilema, de las circunstancias significativas y relevantes y de las posibles consecuencias de las distintas alternativas. Por eso, es clave que se forme bien para conjugar esa información con los valores corporativos y personales, además de la propia experiencia y la ajena, y acertar en las decisiones.

IA+Igual.- ¿Cómo se traduce esto en el terreno práctico?

I.F.- Por ejemplo, una de las preocupaciones principales con la IA es la falta de transparencia y la dificultad para explicar cómo se toman las decisiones algorítmicas. Los valores corporativos pueden promover la transparencia, pero necesitan ser complementados con prácticas y herramientas que permitan la explicabilidad y la auditoría de los algoritmos.

Otro ejemplo es la responsabilidad y rendición de cuentas: es crucial determinar quién es responsable cuando en base a un modelo de IA se adopta una decisión incorrecta o perjudicial. Los valores corporativos pueden establecer principios de responsabilidad, pero deben estar respaldados por estructuras claras de gobernanza y supervisión.

En conclusión, aunque un código de valores corporativo es una base esencial para abordar los desafíos éticos de la IA, no es suficiente por sí solo. Debe ser complementado con políticas específicas, prácticas transparentes, mecanismos de rendición de cuentas, y una cultura organizacional que valore y promueva la ética en todas las etapas de la implementación de la IA.

IA+Igual.- Es cofundador del Grupo de Investigación sobre Ética de la Virtud en la Empresa y la Gestión. ¿Cómo ha ido evolucionando el interés de este grupo hacia la IA?

I.F.- Este grupo de investigación ha tenido claro desde su fundación que su objetivo es poner la ciencia y la investigación al servicio de la persona. Actualmente, gran parte de los retos más importantes en el ámbito de la empresa surgen de la aplicación de la inteligencia artificial en numerosos campos y sectores, por no decir en todos. Nuestra tarea es intentar proporcionar claves que ayuden a los directivos y trabajadores a que las tecnologías nuevas y las ya asentadas faciliten el desarrollo personal y la felicidad de las personas en lugar de dificultarlo.

IA+Igual.- El Reglamento de IA europeo trata de proteger los derechos humanos -en concreto, el derecho de los trabajadores- desde el punto de vista legal y ético y fomentar la transparencia en el uso de la IA. ¿Considera ‘suficiente’ el cumplimiento de esta normativa si ni siquiera muchas empresas son capaces todavía de desentrañar las connotaciones técnicas del uso de algoritmos, por ejemplo?

I.F.- Aunque el cumplimiento de esta normativa es un paso crucial hacia la implementación ética y legal de la IA, podría no ser suficiente por varias razones. Habitualmente, pero más todavía en la época de la IA, la regulación casi siempre llega más tarde que los cambios disruptivos debido a la extraordinaria velocidad de su desarrollo. La tecnología de IA está en constante evolución, y la normativa puede no ser lo suficientemente ágil para adaptarse rápidamente a nuevos desarrollos y desafíos emergentes.

A esto se une la complejidad técnica de los algoritmos, que puede hacer difícil para las empresas identificar y mitigar los sesgos, garantizar la explicabilidad y asegurar la robustez de los sistemas de IA. Además, la implementación de una IA ética y conforme a la normativa requiere recursos importantes, incluidos expertos en IA, herramientas de auditoría y sistemas de cumplimiento. Para las pequeñas y medianas empresas, en particular, puede ser difícil destinar estos recursos, lo que limita su capacidad para cumplir con la normativa.

Por tanto, mientras que el Reglamento de IA europeo es un marco fundamental y necesario para proteger los derechos humanos y promover la transparencia, es necesario un enfoque holístico que incluya la mejora de la capacidad técnica de las empresas, el fortalecimiento de la cultura organizacional, la provisión de recursos adecuados y la participación activa de todas las partes interesadas. Además, la normativa debe ser dinámica y adaptable para mantenerse relevante y efectiva en un campo tan rápidamente cambiante como la IA.

IA+Igual.-  A medida que IA+Igual avanza en las auditorías de casos de uso reales de IA en empresas españolas, crecen los interrogantes éticos derivados de este gran cambio. ¿Es cuestión de experimentar con el método prueba y error?

I.F.- Estamos entrando en un mundo con mucha incertidumbre. No conocemos del todo el alcance de las consecuencias de la implantación de la IA y, por eso, es normal que conforme vayamos avanzando descubramos nuevos interrogantes y dilemas éticos. Aunque hay que seguir avanzando y es inevitable algo de prueba y error, tenemos que trabajar seriamente para intentar reducir esos errores al mínimo porque habitualmente hay personas implicadas. Es importante que las empresas cultiven una cultura organizacional que valore la ética, la transparencia y los derechos humanos más allá de conformarse simplemente con cumplir con los requisitos legales. Esto incluye la formación continua de los empleados y la promoción de prácticas de IA responsables. Así evitaremos más errores de los necesarios.

IA+Igual.- Como profesor de Liderazgo, ¿qué motivaciones y propósito deberían tener los altos directivos de Recursos Humanos para acometer la revolución tecnológica que viven empresa y sociedad?

I.F.- Uno de los propósitos de la empresa debe ser facilitar o, al menos, no impedir el desarrollo y la felicidad de las personas en el trabajo, tarea que recae de modo más directo en los departamentos de Recursos Humanos. Es evidente que la revolución tecnológica que supone la IA puede amenazar este desarrollo personal o favorecerlo y existe un movimiento mundial que procura poner a la persona en el centro de atención de los problemas bajo el nombre de Human Centered AI. Muchos investigadores y profesionales trabajan juntos en la tarea de asegurar que la IA potencie al ser humano en lugar de perjudicarle.

Este nuevo contexto puede facilitar la tarea de los directivos de Recursos Humanos: la automatización y digitalización de procesos permiten que las tareas administrativas y repetitivas se realicen de manera más eficiente, liberando tiempo para que los profesionales de RRHH se enfoquen en actividades de mayor valor añadido como la estrategia de talento y el desarrollo de los empleados. Esto favorece que ejerzan una verdadera tarea de liderazgo, que no es otra que servir a los demás.

Además, también simplifica su tarea al poner a su servicio herramientas que antes no existían. Muchas plataformas tecnológicas permiten ofrecer a los empleados una experiencia más personalizada y satisfactoria -desde la incorporación hasta el desarrollo profesional continuo-, como las herramientas de auto-servicio, aprendizaje en línea y gestión de desempeño basada en datos. Considero que la tecnología debe ser una herramienta para mejorar el bienestar integral de los empleados, abarcando tanto el bienestar físico como mental y espiritual: esto puede incluir desde plataformas de salud y bienestar hasta herramientas de comunicación que faciliten el equilibrio entre la vida laboral y personal.

IA+Igual.-  Va contra corriente con su visión de la implantación de la IA, en la que la botella está medio llena y no medio vacía…

I.F.- Los altos directivos de RR. HH deben ser visionarios y estratégicos, motivados por la eficiencia, la atracción de talento y la mejora de la experiencia del empleado, mientras que su propósito debe estar alineado con la cultura de innovación, el desarrollo continuo, la ética, el bienestar integral y la sostenibilidad. La tecnología es una herramienta poderosa que, bien utilizada, puede transformar positivamente la organización y la sociedad.

IA+Igual.- ¿Cómo está respondiendo UNAV a este cambio de paradigma en el mundo empresarial?

I.F.- Por medio de una investigación profunda, sólida y de vanguardia, de la divulgación de estos conocimientos en las aulas, así como otros canales de comunicación, como son las conferencias, congresos, programas para profesionales y por medio de acuerdos con empresas como el que tenemos con IA+Igual.

Información relacionada

Diálogo social

Webinars Campus IA+Igual

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish
Scroll al inicio