Suscríbete

Alejo José G. Sison

Pensar la Inteligencia Artificial desde la interdisciplinariedad

La Inteligencia Artificial (IA) es un campo que trasciende lo meramente tecnológico y toca aspectos económicos, filosóficos o éticos. Aunque la filosofía suele considerarse una disciplina alejada de la realidad y de las preocupaciones cotidianas, es crucial reflexionar sobre la IA desde esta perspectiva. 

Madrid, 5 de junio. Existen preocupaciones sociales que no deben ser abordadas desde un único punto de vista; la clave está en la interdisciplinaridad. Este enfoque integral es especialmente esencial en el caso de los algoritmos y sus aplicaciones. 

Alejo Sison, profesor de Ética Empresarial y miembro del Instituto de Ciencia de los Datos e Inteligencia Artificial (DATAI) de la Universidad de Navarra (UNAV), lo confirma. Sostiene que las ramas más significativas de la filosofía para reflexionar sobre las herramientas de IA “podrían ser la antropología filosófica (¿quién es el ser humano?) y la ética (¿qué hacer, qué evitar para alcanzar una vida lograda en sociedad?)”. Esta disciplina puede ser útil “para aclarar a quién sirve (la IA), para qué y cómo. Por ejemplo: ¿qué tareas dejar a la IA y cuáles reservar a los humanos?”.

La irrupción de la IA en recursos humanos

Los algoritmos se han adentrado en lo más recóndito de las empresas, mostrando su utilidad en departamentos como Recursos Humanos. Precisamente la gestión del talento es uno de los ámbitos donde el uso de la IA genera mayor preocupación, ya que las recomendaciones algorítmicas pueden tener un impacto directo en las personas De hecho, el Reglamento Europeo de IA califica como de “alto riesgo” a los sistemas que afecten al “empleo, gestión de los trabajadores y acceso al autoempleo”.

Sin embargo, no todos los tipos de IA suponen un riesgo y no todos los riesgos son iguales o requieren las mismas medidas de mitigación: “La IA que clasifica los mensajes electrónicos no deseados (spam) no tiene los mismos riesgos que la generativa de textos, tipo ChatGPT. No es lo mismo utilizar ChatGPT para contar historias a niños que para escribir propaganda política”, asegura Alejo Sison.

La ética de los algoritmos

Debido a la versatilidad de la Inteligencia Artificial, es necesario estudiar cómo deben “repartirse las tareas” entre humanos y algoritmos. Alejo Sison, también docente en la Facultad de Ciencias Económicas y Empresariales, recomienda asignar a la IA “lo que sea ‘dull, dirty, and dangerous’”, es decir, aquello que sea “aburrido”, “sucio” y “peligroso”.

Al mismo tiempo, resalta que los humanos siempre deben tener el control sobre las tareas de los algoritmos en la medida de lo posible. Esto es porque solo nosotros podemos “asumir responsabilidad éticas, nunca las máquinas”. Al final, los algoritmos son simplemente herramientas que utilizamos para agilizar ciertos trabajos. Así, el experto señala que no es necesario aplicar unas consideraciones éticas diferentes a las que tenemos respecto a “las máquinas de vapor, la electricidad o la energía nuclear”. Sino que lo importante es que las personas que trabajen con ella entiendan “que la tecnología IA no es magia”.

AI utilizar algoritmos en áreas como Recursos Humanos, tanto trabajadores como empresas buscan garantizar que su diseño y su uso sean éticas. Sin embargo, Alejo Sisón considera «imposible asegurar eso». «La ética es un rasgos de los humanos en cuanto actores, no de cosas (como algoritmos)», afirma. Por eso es crucial que la supervisión humana en el ámbito de la IA no conceda terreno ni deje a los algoritmos solos en este aspecto.

Cómo acabar con los sesgos, la pregunta del millón

Cómo identificar y mitigar los sesgos en los algoritmos es otra de las «preguntas del millón», según Alejo Sison. El experto en ética señala que existen “diversas técnicas”, pero “ninguna perfecta”, y añade que además “la justicia distributiva no se puede representar adecuadamente en una fórmula matemática”. Es aquí donde se demuestra la importancia de proyectos como el de IA+Igual, que, según Alejo Sison, contribuyen “con un granito de arena de sensatez” y se alejan del “optimismo o pesimismo” para aportar sentido común.

El proyecto IA+Igual refleja la preocupación por lograr que las herramientas de IA aplicadas a procesos de RR. HH. sean más transparentes, más justas y más equitativas. El equipo multidisciplinar que conforma el Consejo Asesor y partner académico de esta iniciativa ayudan a analizar el desarrollo y usos de la Inteligencia Artificial desde el máximo número de ángulos y perspectivas. Todo ello con el fin de realizar un estudio empírico del impacto de los sesgos en los modelos de aprendizaje de los algoritmos utilizados en el mercado laboral y posteriormente desarrollar un libro blanco con recomendaciones para un modelo de certificación y sello de calidad específico del ámbito laboral.

Información relacionada
RR. HH
Regulación
Formación
Diálogo social
Webinars Campus IA+Igual

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish
Scroll al inicio