Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
La portada de mañana
Acceder
INVESTIGACIÓN | La pareja de Ayuso pagó medio millón a un alto cargo de Quirón
El Gobierno solo ha puesto una sanción desde que entró en vigor la ley de Memoria Democrática
OPINIÓN | Adelantar elecciones no es tan buena idea, por Antón Losada
ENTREVISTA Coordinadora del grupo de expertos sobre algoritmos laborales

Gemma Galdón: “Las empresas van a tener que dar datos concretos sobre cómo toman decisiones sus algoritmos”

Gemma Galdón, este viernes durante la presentación de la herramienta para la transparencia de los algoritmos laborales.

Carlos del Castillo

1

“Durante los últimos 25 años he estado investigando la relación entre tecnología y justicia económica. Por eso, no podría estar más emocionada al leer esta Guía sobre transparencia algorítmica en el ámbito laboral. Es una declaración clara, útil y contundente de las obligaciones de las empresas para con sus trabajadores en una economía algorítmica del siglo XXI”. Palabra de Virginia Eubanks.

Eubanks es la autora de La automatización de la desigualdad (traducido al castellano por Capitán Swing), una de las obras de referencia sobre justicia algorítmica que alertan de cómo la inteligencia artificial, revestida de una aparente neutralidad matemática, puede agravar las brechas sociales. La profesora estadounidense ha intervenido en vídeo en la presentación de la herramienta de transparencia para los algoritmos laborales que el Ministerio de Trabajo ha lanzado este viernes. También lo ha hecho Nick Srnicek, profesor del King's College de Londres y autor de Capitalismo de plataformas (Caja Negra), centrado en el modelo de acumulación que aplican las multinacionales digitales gracias a los datos. Ambos han felicitado al departamento que dirige Yolanda Díaz por lanzarse a regular en este campo, muy estudiado pero muy poco regulado a nivel internacional.

“No avanzamos porque el debate siempre se queda en un nivel muy abstracto”, expone Gemma Galdón, coordinadora del comité de expertos y expertas que ha colaborado con el Ministerio para diseñar la herramienta. Su misión ha sido “aterrizar” ese debate: un algoritmo laboral será transparente cuando la empresa que lo implemente sea capaz de responder a la veintena de preguntas sobre su funcionamiento y variables. “No queremos que las empresas hagan un ejercicio narrativo. Queremos que proporcionen información concreta de cómo toma decisiones el algoritmo”, expone en esta entrevista con elDiario.es.

¿Cuáles han sido los retos que ha tenido que afrontar esta Comisión en el diseño de la herramienta de transparencia para algoritmos laborales?

Uno de los puntos de partida de la Comisión es superar el problema que existe en toda la legislación sobre inteligencia artificial y la tecnología en general, que es que no proporciona herramientas. Establece cuáles son los principios a proteger, cuáles son los valores que queremos asegurar que se cumplan, pero no explica cómo. Todo el mundo está atrapado en este “cómo lo hacemos”. No avanzamos porque el debate siempre se queda en un nivel muy abstracto. Esto además dificulta la negociación con todos los actores implicados, porque nadie sabe de qué se está hablando en realidad.

Por eso la primera misión de esta Comisión ha sido precisamente aterrizar estas garantías, y en el caso de la transparencia de los algoritmos, concretar qué significa “transparencia”. Hemos establecido que transparencia significa responder a las 20 preguntas incluidas en la herramienta y proporcionar esa información a los trabajadores y a sus representantes. Eso es transparencia. Eso es lo que pueden pedir los trabajadores y eso es lo que deben entregar los empresarios.

¿Cree que las empresas van a acceder de buen grado a suministrar esa información?

Yo creo que no va a ser sencillo, pero va a ser factible. No va a ser sencillo porque nos vamos a encontrar que muchas veces las empresas desconocen la forma de funcionar de los algoritmos que utilizan. Van a tener que darse cuenta de que están incorporando tecnologías que a veces pueden ir en contra de la legislación laboral, aunque ellas no sean conscientes ni tengan voluntad de ir contra la legislación. La dificultad va a ser que las empresas entiendan que, como implementadoras de esa tecnología, son las que tienen que asumir la responsabilidad de la misma. Necesitan saber cuáles son esos parámetros, esas variables que incorpora cada algoritmo para tomar decisiones.

Yo creo que inicialmente sorprenderá. Las preguntas sorprenderán, porque son preguntas muy técnicas. Nosotros no queremos que las empresas hagan un ejercicio narrativo. Queremos que proporcionen información concreta de cómo toma decisiones el algoritmo. Queremos entender la lógica que hay detrás del sistema a través de esas preguntas.

Una de las cuestiones tratadas en la presentación ha sido precisamente que en muchas ocasiones las empresas compran sistemas de inteligencia artificial sin saber cómo funcionan.

Sí, por eso esta es una herramienta que protege al trabajador, pero también a la empresa. La empresa, cuando vaya a comprar uno de estos sistemas, puede decidir comprárselo al proveedor que le garantice que puede responder a las preguntas que le van a plantear sus trabajadores. Y si no puede responder, pues entonces no debe comprar esa tecnología. Es como comprar algo sin manual de instrucciones: si no me sabes explicar cómo funciona pues no te lo voy a comprar, voy a comprar el de al lado, que sí que me lo explica. Creo que damos seguridad jurídica a muchos actores en ese sentido.

¿La Comisión ha contactado con patronales o asociaciones de empresas para recabar su opinión?

Directamente no, pero desde Eticas estamos en permanente contacto con la industria y la recepción de la herramienta ha sido muy buena. Y esto es en buena parte debido a que la herramienta no pide el código de los algoritmos.

Las empresas tienen miedo a que se les pida el código fuente de los algoritmos

Las empresas tienen miedo a que se les pida el código fuente. Es un miedo que puede ser racional, porque es verdad que a veces se cruzan temas de propiedad intelectual y de secreto empresarial que podrían generar problemas. En principio lo que las empresas reciben muy bien es saber de qué estamos hablando cuando hablamos de transparencia. Evidentemente puede haber algunas preguntas que les gusten más y otras que les gusten menos. A partir de eso podemos hablar, pero como mínimo podemos tener un debate en base a algo concreto. Es muy difícil entenderse si no sabemos de qué estamos hablando. Ahora tenemos ya algo concreto sobre lo que podemos hablar.

En la presentación ha habido representación empresarial y el feedback que nos han dado in situ ha sido muy bueno.

Al no dar el código fuente, ¿podrían las empresas mentir en la información que dan a los trabajadores?

No es tan fácil mentir. En una etiqueta nutricional de un alimento por ejemplo, tú puedes mentir, pero cuando lo pruebas, tú ves que lo que pone no es lo que es. Con los algoritmos es un poco el mismo proceso. Se puede mentir, pero es que si tú entiendes el contexto de implementación, tú puedes detectar esas mentiras, no es tan fácil mentir. Si tú me estás diciendo que las variables que estás teniendo en cuenta son la edad de los trabajadores y yo estoy viendo que los impactos no tienen en cuenta esta variable, yo podré preguntarte qué es lo que ocurre porque no me cuadra lo que tú me dices con lo que yo estoy viendo. Al final el trabajador y sus representantes tienen acceso a una información muy importante, que son los impactos del algoritmo. En base a los impactos, podemos identificar cuando esa herramienta incorpora información que no es veraz.

Cuando te dan el código te pueden dar uno que no es el que han implementado realmente. Eso pasa muchísimas veces

Además, no sería más difícil mentir si las empresas tuvieran que dar acceso al código. Cuando te dan el código te pueden dar uno que no es el que han implementado realmente. Eso pasa muchísimas veces. Lo más importante no es el código, son las variables. El código me da muchísima información que no necesito. Con la herramienta lo que hacemos es pedir exactamente la información que necesitamos y además de una forma que el trabajador lo puede leer. El trabajador no puede leer código, pero sí puede leer la herramienta de transparencia algorítmica.

¿Qué papel deben tener ahora los sindicatos? La vicepresidenta ha pedido a los agentes sociales que se formen en esta cuestión y que tengan en cuenta que la responsabilidad de vigilar la implementación de algoritmos también es suya.

Esta herramienta quien tiene que utilizarla son los representantes de los trabajadores. Si no hay una voluntad de utilizarla va a ser mucho menos útil de lo que podría ser, está clarísimo. Esta herramienta interpela a todos los agentes sociales y un actor importantísimo son los sindicatos. Yo creo que hay voluntad de incorporar estos temas, pero es verdad que no será sencillo. De nuevo, el hecho de que la herramienta sea técnica pero comprensible creemos que puede facilitar ese proceso. A partir de la herramienta los sindicatos van a poder hacer formaciones para que los trabajadores y delegados sindicales, cuando reciban respuesta de la empresa, entiendan y sean capaces de utilizar la información proporcionada para intervenir en ese proceso de toma de decisiones.

En la presentación de la herramienta han intervenido Virginia Eubanks y Nick Srnicek, dos referencias en el análisis de algoritmos. ¿Hay interés internacional por lo que está haciendo España en este campo?

Totalmente. De hecho, lo primero que tenemos que hacer es traducir la herramienta al inglés porque nos la han pedido de muchísimos lugares. Italia, que tiene también un comité parecido al nuestro, nos la ha pedido porque la quiere tener en cuenta para sus trabajos. Todo el mundo tiene planes, pero hay muy pocas cosas concretas ya desarrolladas. Nosotros no hemos presentado la intención de desarrollar una herramienta, hemos presentado la herramienta, con lo cual ya tenemos algo que podemos empezar a compartir con el mundo para mejorar.

stats