Suscríbete

RR. HH evita que los procesos basados en IA interfieran con la ética con Javier Moscoso

RR. HH evita que los procesos basados en IA interfieran con la ética

Javier Moscoso, filósofo del CSIC y miembro del Consejo Asesor de IA+Igual, no es ajeno a los temores que suscita la implantación de la IA en Recursos Humanos, pero se muestra optimista: existe un interés genuino entre los directivos del área para que la eficiencia de los nuevos procesos basados en IA no interfieran con los valores éticos de la empresa.

Madrid, 17 de abril. Según una encuesta realizada por Bitdefender, al 80 % de los españoles les inquieta la seguridad y la privacidad de sus datos ante la creciente implantación de la inteligencia artificial (IA). Javier Moscoso, filósofo del CSIC y miembro del Consejo Asesor de IA+Igual, no es ajeno a estos temores, pero lanza en esta entrevista un mensaje optimista.

IA+Igual.- La implantación de la inteligencia artificial suscita pasiones contrapuestas: esperanza y temor. ¿Es posible contribuir, desde la filosofía, a una visión más equilibrada y/o realista?

Javier Moscoso.- Sí, no solo desde la filosofía, sino desde las humanidades en general. La percepción pública de la IA no es muy diferente de la que hemos visto a lo largo de la historia con ocasión de otros desarrollos tecnológicos: desde el ferrocarril a la informática.

Antes de la IA, hemos visto miedos y esperanzas, a partes iguales, en relación con la energía nuclear o la genética, por ejemplo. En todos los casos, han surgido formas de prevención del abuso y de limitación ética de su explotación. El control de la IA es solo un aspecto a tener en cuenta.

Quizá más importante que saber quién está al mando, y quién o quiénes no queremos que estén, es esclarecer la bondad de los fines para los que esta nueva herramienta pueda servirnos de medio.

IA+Igual.- Es inevitable cierto miedo ante lo desconocido, como comenta, más cuando se trata de un cambio que no solo afecta al trabajo , sino también a nuestro día a día. Como trabajadores o ciudadanos, ¿qué podemos hacer desde el punto de vista individual para que se convierta en un aliado en vez de en un enemigo?

J.M.- Como cualquier otro desarrollo tecnológico, la IA nos coloca ante un espejo que nos hace preguntas sobre nosotros mismos. Mucho más que el miedo ante lo desconocido, la máquina que piensa como un ser humano, nos perturba la idea de si nosotros mismos no llevamos demasiado tiempo pensando como máquinas o manoseando las mismas ideas bajo distintas formas.

La preocupación, quizá legítima, de que la IA viene a suplantar a los seres humanos en sus tareas creativas, es simplemente falsa de momento. Solo quienes trafican con ideas prestadas pueden estar preocupados por lo que escriba ChatGPT. Tal vez el problema sea que hay muchos “creadores” de contenidos, ya sean artistas o académicos, que tal vez no lo sean tanto.

IA+Igual.- La implantación de la IA en los procesos de RR. HH puede tener efectos discriminatorios si no se “curan” los datos históricos usados y los sesgos que contienen. ¿Cree que las empresas están suficientemente concienciadas y preparadas para evitar dichos sesgos?

J.M.- El uso de algoritmos en los departamentos de RR. HH puede, por supuesto, arrastrar todos los sesgos de quienes los han diseñado. Al mismo tiempo, el recurso a las nuevas tecnologías, del tipo que sean, no puede significar, de ningún modo, una progresiva deshumanización de las empresas, en particular, o de la sociedad en su conjunto.

De nuevo, es positivo, echar un vistazo a la historia. La lectura, por ejemplo, parecería una actividad solitaria y, por lo tanto, disgregadora. Nada más lejos de la realidad, sin embargo. Lo mismo sucede con las redes sociales o las nuevas plataformas. Son también productos culturales que no están marcados éticamente: arrastran, eso sí, los intereses de quienes los han creado y, en consecuencia, hay que observar que esos intereses sean éticamente aceptables.

Por lo que yo sé, existe una creciente conciencia en las grandes empresas de los peligros que conlleva el uso de nuevas tecnologías. Mi impresión es que, como ocurre en otros muchos sectores, desde la investigación hasta la política, hay un interés genuino y sincero para que la eficiencia de los nuevos procesos (selectivos, por ejemplo) no interfiera con sus valores éticos.

IA+Igual.- Como cualquier otro gran avance, se espera que la IA permita mejorar la productividad y los beneficios de las empresas. ¿Considera que, en general, los directivos españoles tienen la formación ética necesaria para afrontar este cambio de paradigma?

J.M.- No tengo datos suficientes para saber hasta qué punto los directivos españoles tienen o no formación ética suficiente. Sí veo un interés genuino por acomodar razones morales e intereses económicos. Cuando digo “genuino”, quiero decir que los directivos de las empresas que conozco, así como otros muchos responsables de Recursos Humanos, entienden, para empezar, que la aplicación de valores éticos a su gestión empresarial es rentable desde el punto de vista económico.

Pero aunque no fuera así, creo que existe la suficiente conciencia social como para que esos mismos empresarios y empresarias consideraran que sus objetivos empresariales no pueden alcanzarse a cualquier precio. El interés creciente en estudiar los posibles sesgos que los nuevos algoritmos proporcionan a los departamentos de RR. HH es, a mi juicio, prueba de ello.

IA+Igual.- Desde el Consejo Asesor de IA+Igual se pone el acento en que los algoritmos facilitan la toma de decisiones a la persona, pero siempre será ésta quien tenga la responsabilidad última de su uso. ¿Va a ser mayor la responsabilidad de los profesionales que usan IA en la medida en que van a contar con el gran potencial que ofrecen la IA?

J.M.- En efecto, la decisión última, y la responsabilidad, siempre recae en quien utiliza el sistema. Pero también en quien lo diseña. La responsabilidad de quien toma decisiones será la misma, si bien ahora se trata de una responsabilidad diversificada que debe asumir los posibles inconvenientes de la herramienta que utiliza. 

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish
Scroll al inicio