Suscríbete

La empresa debe asegurarse de que cumple el Reglamento IA europeo

La empresa debe asegurarse de que cumple el Reglamento IA europeo

¿Qué deben hacer las empresas con los desarrollos de IA que afecten a los trabajadores hasta que se apruebe el Reglamento de IA de la UE en 2026? En esta fase de indefinición normativa, José Domínguez, experto abogado del despacho Martínez Echevarría y miembro del Consejo Asesor de IA+Igual, ofrece algunas interesantes recomendaciones.

Madrid, 16 de mayo. El 67% de los directores de Recursos Humanos españoles tiene previsto implantar la IA en los próximos meses, según una encuesta de IA+Igual.  José Domínguez ofrece en esta entrevista algunas claves que deben tener en cuenta las empresas que están utilizando IA con datos de sus empleados.

IA+Igual.- La aprobación de Reglamento General de Protección de Datos (RGPD) ha marcado un punto de inflexión en el uso de los datos personales por parte de la empresa. ¿Se está viendo reforzada por el Reglamento de IA?

José Domínguez.- Sí, ambas leyes van a caminar de manera paralela. El Reglamento de IA se centra en cuestiones muy particulares: algunas de ellas ya estaban previstas en el Reglamento General de Protección de Datos (RGPD), pero el Reglamento es muy preciso respecto a todo aquello que faltaba. Por lo tanto, las dos leyes se van a complementar muy bien. El RGPD ya establecía de forma clara que si se utilizaban medios “que no fueran humanos”, como puede ser la inteligencia artificial, se debería informar al titular de los datos. El artículo 10 del Reglamento detalla de forma exhaustiva la gobernanza de los datos.

IA+Igual.- ¿Qué consecuencias tiene la posible discriminación derivada del uso de datos históricos sesgados en un proceso de selección, por ejemplo, cuando es consciente y cuando es inconsciente?

J.D.- La Unión Europea trabaja en una ley sobre la responsabilidad civil en el uso de la IA, pero todavía no está finalizada. Cuando el uso de la IA cause daño a un tercero, la IA no puede responder como tal, pero deberá hacerlo el que la esté utilizando y el creador. Aunque hay quien dice que con la Ley de IA se externaliza la responsabilidad, no es así: serán responsables de su uso tanto el proveedor como la empresa.

Cumplir la normativa europea

IA+Igual.- ¿Qué debe hacer el departamento de Recursos Humanos cuando contrata un desarrollo de IA a un proveedor? La mayoría de las soluciones actuales proceden del ámbito anglosajón, más permisivo a nivel legal que el europeo.

J.D.- Ahora mismo estamos en los albores de la inteligencia artificial y de su uso por parte de las compañías. Las empresas norteamericanas tendrán que asegurarse de que su producto cumpla la normativa europea y habrá algunos desarrollos que no podrán comercializarse en la UE. IA+Igual es un proyecto pionero que ya está verificando casos de uso reales de la IA en Recursos Humanos y desde el Consejo Asesor estamos impulsando la certificación externa frente a otras iniciativas que apuestan por la auto certificación. Seguramente, en los próximos dos años aparecerán empresas que tengan la capacidad de certificar que esa inteligencia artificial reúne todos los requisitos que se exigen en la Ley de IA y será más fácil, por decirlo así, acudir a una IA que tenga su sello de certificación. Mientras no exista esa certificación, la empresa deberá buscar la manera de asegurarse que contrata servicios de IA que cumplan todos los requisitos establecidos en la Ley de IA.

IA+igual.- En un proceso de IA interviene mucha gente a partir del momento en que alguien fija el objetivo perseguido: quien proporciona los datos, el equipo técnico que desarrolla y entrena el algoritmo, el responsable que debe validar si el modelo facilita el objetivo de forma legal y ética… ¿Existe un mecanismo claro para determinar quién es el responsable último del uso correcto de los datos personales de los trabajadores?

J.D.- No hay nada establecido ni en la Ley de IA ni en ninguna otra. Lo que tienen que hacer las empresas, de alguna manera, es establecer en el step plan qué es lo que se va a hacer y documentarlo en cada una de las fases para poder llegar a la conclusión final de que el producto es adecuado.

IA+Igual.- ¿Cree que las elevadas multas previstas por el reglamento tendrán un efecto disuasorio real?

J.D.- Cuando se apruebe también la ley de responsabilidad civil, la aplicación de las multas que contempla la Ley de IA cuando se vulneren derechos fundamentales de las personas tendrá un efecto disuasorio real. Siempre ocurre lo mismo: la letra con sangre entra.

La reputación en juego

IA+Igual.- La encuesta de IA+Igual planteó a los responsables de Recursos Humanos los riesgos del uso de la Inteligencia Artificial generativa: el 45,8% manifestó preocupación por el cumplimiento normativo y sólo el 14%, por el riesgo reputacional. ¿Es necesaria una mayor conciencia acerca del impacto que puede tener un uso no ético?

J.D.- Es cierto que todavía hay poca sensibilización acerca de los riesgos derivados del uso de la IA. Pero hay que tener en cuenta que al consumidor le atraen más las empresas éticamente firmes: si una compañía es multada, se puede encontrar con un gran problema.

El buen gobierno de los datos (artículo 10 del Reglamento de la IA)

El Reglamento de IA da una vuelta de tuerca a la Ley de Protección de Datos con indicaciones muy precisas, como explica el abogado José Domínguez. En el marco del capítulo II sobre los Requisitos para los sistemas de IA de alto riesgo, el artículo 10 establece que “Los conjuntos de datos de entrenamiento, validación y prueba se someterán a prácticas adecuadas de gobernanza y gestión de datos”. Dicho artículo detalla algunas prácticas en particular, aplicables a procesos como el de selección de personal que puede vulnerar derechos fundamentales:

  • La elección de un diseño adecuado.
  • La recopilación de datos.
  • Las operaciones de tratamiento oportunas para la preparación de los datos, como la anotación, el etiquetado, la depuración, el enriquecimiento y la agregación.
  • La formulación de los supuestos pertinentes, fundamentalmente en lo que respecta a la información que, ateniéndose a ellos, los datos miden y representan.
  • La evaluación previa de la disponibilidad, la cantidad y la adecuación de los conjuntos de datos necesarios.
  • El examen atendiendo a posibles sesgos
  • La detección de posibles lagunas o deficiencias en los datos y la forma de subsanarlas.

Asimismo, el artículo 10 establece que los conjuntos de datos utilizados para entrenar, validar y probar sistemas de IA de alto riesgo deben cumplir con los siguientes criterios: ser pertinentes y representativos; carecer de errores y estar completos; tener propiedades estadísticas adecuadas; y considerar las características específicas del contexto geográfico, conductual o funcional en el que se utilizará el sistema.

Información relacionada
RR. HH
Regulación
Formación
Diálogo social
Webinars Campus IA+Igual

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish
Scroll al inicio