“Los algoritmos no son imparciales: generan desigualdades que quedan legitimadas por la automatización”

Todo está en los datos. También la justicia social. El italiano Emiliano Treré es profesor titular en la School of Journalism, Media and Culture de la Universidad de Cardiff (Reino Unido). Actualmente, trabaja en el Data Justice Lab, un laboratorio de ideas que explora cómo la dataficación, que todas las acciones humanas sean traducidas a unos y ceros, afecta de forma desigual a distintos colectivos sociales. Para hablar sobre ello, el investigador ofreció la pasada semana una ponencia en la Escuela de Verano de Etopía, el Centro de Arte y Tecnología de Zaragoza.

¿Qué es la justicia de datos?

Se trata de relacionar la dataficación, el proceso de transformación de cada acción social en datos, con cuestiones de justicia social. Se busca reenfocar el debate, muchas veces centrado en privacidad, seguridad, eficacia... hacia cuestiones más amplias de justicia social; se trata, en fin, de politizar el debate sobre los datos. Es una mirada que contempla múltiples grupos y perspectivas, por eso es muy difícil concretar de qué preocupaciones se ocupa. Preferimos mantener la definición abierta para poder abarcar varias temáticas, pero todo lo referido a grupos subalternos, desigualdades, discriminaciones... está relacionado con este concepto de justicia de datos. No entendemos la dataficación como un concepto abstracto, sino como algo profundamente social y contextual.

Este proceso de dataficación ha sido presentado como un proceso natural, inherente al progreso tecnológico.

Forma parte de la propia dinámica del capitalismo, hacer pasar por naturales procesos que tienen poco de ello. Lo que Internet y las nuevas tecnologías digitales han llegado a ser es resultado de procesos impulsados por lo corporativo, por grandes empresas que han llegado a dominar este ámbito, cuando podría haber sido muy diferente. Está claro que hay una parte de integración diaria de estas tecnologías, que nos ayudan en nuestra vida cotidiana y nos conectan a un mundo de oportunidades, pero cómo hemos llegado a la explotación de los datos, a la transformación de cada acción en un dato, no tiene nada de natural. Es el resultado de la acción de corporaciones que han buscado un nuevo modelo de negocio.

¿Cómo puede el Big Data, la gestión de los datos que generan los usuarios, crear discriminaciones?

La automatización de los procesos está en casi todos los ámbitos de la acción humana. Cuando escoges una escuela para tu hijo, cuando estás incriminado por un delito, cuando te tienen que operar... En todos estos asuntos (educación, seguridad, sanidad...) hay decisiones tomadas por una amalgama de humanos y algoritmos que interactúan. Dentro de esto no hay nada natural, porque los códigos son creados por humanos, los sistemas son manejados por alguien; muchas veces se externalizan estos procesos, y se deja en manos de empresas la posibilidad de introducir sesgos en los algoritmos que discriminen por raza, género, ingresos... Nadie controla esto y se generan desigualdades, en muchos casos preexistentes, que quedan legitimadas por la automatización. Hay que luchar para evitarlo, pero desde el mismo origen, no pensando que los algoritmos, por estar basados en inteligencia artificial, son de por sí imparciales. Cualquier persona puede encontrase con esto. Además, estos sistemas son opacos, no se sabe quién está detrás y generan una gran cantidad de datos que muchas veces no son comprensibles por la mayoría de la gente.

El Data Justice Lab también analiza cómo la dataficación fomenta las desigualdades entre Norte y Sur.

En los sures del mundo, porque más allá de la acepción geográfica hay también sures en el Norte, se dan diferentes usos de los datos. La narrativa general del Big Data como algo inevitable y universal, que ocurre en todo el mundo, está impulsada por Silicon Valley. Pero el Big Data se está insertando también en las desigualdades de América Latina o África. Nos cuestionamos cómo se introduce el Big Data en estos contextos, y las respuestas que surgen a nivel local. Como investigadores, tenemos que prestar atención a estos contextos y fomentar un diálogo entre distintas comunidades en busca de soluciones.

En el Data Justice Lab trabajáis cuestiones como las afecciones que la dataficación produce sobre el trabajo, las condiciones de vida, los refugiados...

Tenemos una línea de investigación sobre cómo la automatización de procesos impacta en el trabajo, en conexión con la externalización que realizan las plataformas digitales (Uber, Airbnb, Amazon...), generalmente trabajos muy mal pagados. Sobre los daños materiales que genera la dataficación, la profesora Lina Dencik dirige un proyecto en el que una de las líneas de trabajo es ver cómo afecta a los refugiados, un colectivo sometido al rastreo y la recolección de todo tipo de datos, con muy pocas posibilidades de ofrecer resistencia. Por su parte, Joanna Redden, otra investigadora del Data Justice Lab, comenzó a recoger información de personas cuyas vidas se han visto afectadas por una decisión sobre sus datos, generándoles perjuicios económicos, de salud, etc. Junto con Redden, hemos intentado ampliar este enfoque a diversas zonas del mundo, para ver cómo en cada lugar se ha dado respuesta a estos problemas, de manera que podamos generar un mapa de recursos sobre a quién acudir (abogados, activistas...) ante estas situaciones, teniendo en cuenta además que en muchos sitios no tienen acceso a una conexión de calidad.

En España, Civio ha denunciado que el código del programa a través del que se establece el bono social eléctrico tiene un sesgo que deja fuera a usuarios que tienen derecho a este descuento. ¿Es necesaria una regulación más estricta sobre los códigos que rigen nuestras relaciones con las empresas y las administraciones?Civio

Lo es, porque es muy peligroso. En Europa, donde hay más control normativo al respecto que en Estados Unidos, deberíamos empujar más para que así fuera. En el momento en el que nuestros datos están registrados y se pueden procesar... ¿Cuáles son las consecuencias que eso tiene a nivel de privatización y opacidad de los mecanismos que regulan muchos de los servicios públicos? ¿Quién interviene cuando esto te perjudica? Se tiene que regular, pero esto no lo es todo. Hay que luchar a distintos niveles, y lo más importante es lograr una reforma estructural. No se puede permitir que una empresa nos diga “Esto es así” y de esta manera se justifiquen prácticas profundamente injustas.

Esta barrera del algoritmo recuerda un poco a lo que ocurría en la película 'Yo, Daniel Blake' de Ken Loach, donde un señor de 59 años chocaba contra la maraña administrativa cuando iba a solicitar una asistencia social.

Hay quien ha dicho que los algoritmos son la nueva burocracia. Con la automatización de estos procesos se busca la ofuscación kafkiana, hacerlo difícil y complejo, porque esto beneficia a unos poderes, a esa intersección entre lo público y lo privado que se trata de fomentar.

¿Qué podemos hacer los ciudadanos ante esto?

Nos afecta a todos, y no hay una única solución. Hay una parte más individual, de concienciación a través de la lectura, de la interacción... pero también hay una parte colectiva, donde se está formando un movimiento global. La cuestión de los datos define hacia dónde irá la sociedad en los próximos cincuenta, cien años, y está también muy relacionada con el colapso medioambiental. No es un tema más: es el tema; nos afecta como humanos, como especie. Por eso no basta con actuar de forma individual, aunque está bien: hay que participar en foros, movimientos colectivos... para cambiar el código de la sociedad. No es solo que nos vigilen a través de la tecnología y tratemos de evitarlo con pequeñas acciones, hay que imaginar soluciones globales porque es algo sistémico y no hay salidas fáciles. Hay que situar el debate en los bares, en nuestro día a día. Por suerte, las nuevas generaciones son más conscientes tanto del problema del control de datos como del ambiental, y creo que de ellas vendrán las respuestas.