Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

Reglamento europeo de IA: cuán largo me lo fiais

Una persona trabajando con herramientas digitales.
17 de julio de 2024 22:46 h

6

La publicación del Reglamento europeo de Inteligencia Artificial (AI Act) inicia una cuenta atrás que se sustanciará en un radical cambio de reglas en la aplicación de esta tecnología al mundo del trabajo.

Aunque resten dos años para su plena vigencia –un tiempo a todas luces excesivo, especialmente si la principal exigencia radica en el respeto a los derechos fundamentales– conviene ir conociendo sus especificaciones y deberes. No es ejercicio asequible, puesto que el redactado final comprende 180 considerandos, 113 artículos, 68 definiciones y trece anexos, para un total de 144 páginas en su versión en español, en demasiadas ocasiones articuladas de forma abstrusa e imbricada (con toda probabilidad, una de las consecuencias de la negociación más larga de la historia de la UE).

El Reglamento parte de un enfoque basado en el riesgo que entraña una IA de aplicación laboral. Llamativamente, en dicho ámbito se concitan dos modalidades: actividades prohibidas y de alto riesgo (no existen, a priori, IA laborales con riesgo limitado o mínimo; todas son catalogadas con un alto peligro potencial). Las actividades vedadas se concretan en dos:  la detección de las emociones en el puesto de trabajo y el control biométrico, para usos como identificar la afiliación sindical. 

El resto de los elementos que componen una relación laboral de inicio a fin –desde la selección de personal hasta la extinción contractual, pasando por cualquier decisión algorítmica relacionada con la promoción profesional, la asignación de tareas o la supervisión/evaluación del rendimiento o del comportamiento– serán consideradas como actividades de alto riesgo. La sola catalogación de una actividad como alto riesgo, como el propio nombre indica, envía un claro mensaje sobre sus implicaciones: son un peligro para los derechos fundamentales de los trabajadores. Pero dicha clasificación contiene más implicaciones.

Dentro de dos años, cualquier empleador que desee implementar una IA laboral deberá garantizar su fiabilidad. En consecuencia, estará sujeto a una serie de obligaciones que no podrá obviar. Entre otras, estará la necesidad de realizar una evaluación de impacto, desarrollar un exhaustivo sistema de gestión de riesgos, garantizar una supervisión humana de cada IA (de forma efectiva y real), asegurar un uso apropiado de datos que eviten cualquier tipo de sesgo y comprometerse a ser transparentes con su funcionamiento mediante una “información concisa, completa, correcta y clara que sea pertinente, accesible y comprensible”. Todas estas obligaciones –y algunas más–deberán ser asumidas por todo tipo de empleadores (sean empresas privadas u organismos públicos) a lo largo de toda la cadena de valor y del ciclo de vida de cada IA.

Para calibrar el tamaño del desafío que tenemos por delante, primero debemos conocer el punto de partida. Aunque seamos un país de microempresas, el efecto tractor de las grandes compañías (250+ personas trabajadoras) es indiscutible. Y son precisamente estas firmas las que, por escala y capacidad inversora, han adoptado con mayor profusión esta tecnología.

Según el INE, el 40% de las grandes empresas españolas usa IA laborales, lo que implica que, según Eurofound, uno de cada tres personas trabajadoras en España trabaja bajo decisiones algorítmicas. De hecho, la “automatización de flujos de trabajo o ayuda en la toma de decisiones” es el caso de uso más habitual entre las grandes empresas.

Sin embargo, solo un 36% de dichas empresas estaría desarrollando políticas éticas de IA (IBM, datos para España, 2023); un 74% no están tomando acciones para reducir los sesgos no deseados (IBM World, 2022) y hasta un 84% no consideraba los aspectos de “equidad y justicia” como relevantes a la hora de poner en producción una IA laboral (McKinsey, 2023). Cifras bochornosas e inadmisibles, muy lejos de las autocomplacientes políticas de compliance empresarial o de la exigible observancia de las leyes laborales al uso. Si el objetivo a dos años de la AI Act es el estricto respeto a los derechos fundamentales de las personas trabajadoras, partimos desde muy muy lejos. Se trata unas cifras coherentes si analizamos dinámica de mercado: casi la mitad son sistemas de IA comerciales listos para usar, lo que invita a desentenderse de las consecuencias laborales de dicha adquisición.  

Los mimbres para cumplir con estos requerimientos tampoco son motivo para vanagloriarse. A pesar de que cuatro de cada 10 grandes empresas españolas usan IA, apenas un 11% tiene expertos en dicha tecnología entre sus plantillas (solo un 2% de los expertos TIC lo son en IA). No solo es una cantidad claramente insuficiente, sino que además únicamente un 0,46% son mujeres (la paridad en expertos TIC solo se constata en el 4,45% de las empresas españolas). Así será imposible concebir IA laborales con la necesaria perspectiva de género: si excluimos a más de la mitad nuestra población, ni algoritmos justos, ni equitativos, ni nada que se le asemeje.

Si estas cifras nos parecen negativas, las referentes a la alfabetización digital (un aspecto preponderante en el Reglamento, con obligaciones específicas para supervisores y usuarios de las IA laborales) son igual de lamentables: un 30% de las mayores empresas españolas nunca forman a sus empleados en nuevas tecnologías. 

Los deberes están ya expuestos. No caben eximentes ni retrasos. Sería ingenuo no admitir la complejidad de la tarea, pero 24 meses constituyen un lapso ya de por sí excesivo. El respeto a nuestros derechos fundamentales debería estar en la agenda, por defecto, de cualquier empleador, por lo que cabe animar a todas las empresas a “que empiecen a cumplir, de forma voluntaria, las obligaciones pertinentes del presente Reglamento ya durante el período transitorio”.

Etiquetas
stats