Suscríbete

presentacion iamasigual

La persona en el centro del algoritmo

Poner a la persona en el centro del algoritmo es el ambicioso objetivo de IA+Igual. Se ha comentado alto y claro destacando, además, el alcance social de la IA en el mercado laboral.

Madrid, 9 de noviembre. Esta semana se ha presentado el Proyecto IA+Igual en el Ministerio de Sanidad con motivo de la entrega de los Premios Empresa Saludable, Flexible y Sostenible 2023. Aunque parece que el área de Recursos Humanos no se ha planteado, en líneas generales, cómo puede mejorar la Inteligencia Artificial todos sus procesos, lo cierto es que los promotores de este proyecto lo tienen muy claro.

Ayudar al mercado laboral a conseguir una digitalización ética verificando los algoritmos de Inteligencia Artificial para que funcionen de una forma ética y confiable es la propuesta de valor de IA+Igual”, explica Marisa Cruzado, promotora de esta iniciativa junto a ORH e IN2.

Tras la propuesta de analizar y verificar los algoritmos utilizados en RR.HH. subyace el interés de demostrar empíricamente si los resultados reproducen los sesgos inconscientes o conscientes. “Cuando la empresa controla sus procesos no tiene por qué tener miedo a la IA y puede descartar que genere un riesgo reputacional,” subrayó Maite Sáenz, directora de ORH.

Un ejemplo de cómo funcionan los sesgos de los algoritmos:

  • Si buscamos “colegial” en Google -en este caso se ha utilizado un dispositivo móvil-, los resultados se muestran en la primera imagen a la derecha: un popular postre y los típicos zapatos que cualquiera puede identificar con el colegio.  Lo normal, ¿no?
  • Pero si se realiza la misma búsqueda usando  “colegiala”, el resultado que ofrece Google es muy diferente, como se aprecia en la otra imagen. En concreto, sorprende la foto de la segunda fila: ¿es esa la imagen que esperamos de una colegiala? El resto tampoco son tan convencionales como en el primer caso.

El posicionamiento SEO/SEM de una página web ofrece resultados tan curiosos como este. El propósito de este ejemplo utilizado por Marisa Cruzado es, exclusivamente, invitar a una reflexión acerca de los sesgos inconscientes que van impactando en la vida cotidiana (el ejemplo se ciñe al género, pero es extensible a la edad, raza, etc.).

Entre el bien y el mal

Durante la presentación, el historiador y filósofo Javier Moscoso y el sindicalista José Luis Fernández mantuvieron un interesante debate con Marisa Cruzado sobre el significado de poner a la persona en el centro del algoritmo.

Para José Luis Fernández, director del Gabinete de Estudios de USO, “la persona es, de hecho, el centro de toda actividad”. Cuando en el ámbito de su sindicato se refieren a los derechos de los trabajadores, lo que defienden son los derechos que tiene la persona por ser persona.

Por su parte, el investigador del CSIC Javier Moscoso, señaló que le resulta complicado explicar qué se entiende por IA, pero en el terreno humano desglosó en dos partes el significado de inteligencia: “en primer lugar, la inteligencia es instrumental o adaptativa: adaptar los medios a los fines; en segundo lugar, partiendo de esos fines, hay que ver si son interesantes”.

Sobre esa base, puso un ejemplo paradójico. La llamada Máquina Filantrópica, conocida popularmente como guillotina, nació para evitar “sesgos”: cortaba todas las cabezas por igual sin depender de la fuerza de una persona. Un fin cuestionable.

Respecto al interés, el ejemplo fue opuesto: cuando surgió el ferrocarril, la prestigiosa revista Lancet publicó un artículo calificando el tren de bestia humana que destruía el país… Miedo infundado, que se replica en algunos casos en la actualidad con la IA.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish
Scroll al inicio