Suscríbete

IA+igual Quienes somos

Las personas heredan los sesgos de la inteligencia artificial

Imaginemos el caso de una empresa que ha introducido la inteligencia artificial en un proceso y, pasado un tiempo, deja de usarla porque descubre que los algoritmos estaban sesgados. Problema solucionado. ¿O no?

Madrid, 10 de octubre. En el área de la Medicina, la asistencia de la inteligencia artificial ofrece unos resultados muy precisos en tareas como el diagnóstico basado en imágenes, la predicción de los resultados de intervenciones o la recomendación de tratamientos. Pero, como sucede en todos los ámbitos, para identificar patrones y generar predicciones, los algoritmos se basan en datos históricos que no siempre se seleccionan con la calidad debida y pueden generar predicciones sesgadas.

El problema es que,  aunque dejen de usar los algoritmos, los profesionales seguirán reproduciendo estos sesgos de forma inconsciente. Lucía Vicente y Helena Matute, de la Universidad de Deusto, advierten de que “las personas tienden a percibir los algoritmos de inteligencia artificial como objetivos seguros e imparciales” a pesar de que con frecuencia heredan nuestros errores y sesgos. Estas dos psicólogas han difundido a principios de octubre los resultados de una investigación basada en un diagnóstico simulado basado en el uso de algoritmos (Vicente, L., Matute, H. Humans inherit artificial intelligence biases. Sci Rep 13, 15737, 2023).

Para evitar lo que Vicente y Matute denominan “la herencia del sesgo de la IA por parte de los humanos”, el Proyecto IA+Igual trata de detectar posibles sesgos en los algoritmos usados por el Departamento de Recursos Humanos, sobre todo en el área de Selección.

Cómo evitar los sesgos

Un auto de la Sala Social del Tribunal Supremo del 13 de septiembre del 2023 confirma la nulidad de un despido de Huawei a un ingeniero de 58 años al ser discriminatorio por razón de edad. Mientras los reguladores trabajan para que la normativa frene el uso de sesgos intencionados por edad, sexo, raza, etc., los expertos deben profundizar en esos otros sesgos que son inconscientes y, al final, tienen un impacto negativo en la empresa y en la sociedad.

El próximo 18 de octubre tendrá lugar la primera reunión del Consejo Asesor de IA+Igual para poner sobre la mesa las principales políticas que afectan al área de Recursos Humanos. El objetivo final es elaborar un Libro Blanco con recomendaciones de uso de la Inteligencia Artificial. Este órgano multidisciplinar abordará los temas que impactan en el mercado laboral desde una perspectiva jurídica, antropológica, matemática, entre muchas otras.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish
Scroll al inicio