Facebook emplea etiquetas potencialmente sensibles con el 67% de sus más de 2.200 millones de usuarios en todo el mundo. Estas tags perfilan a sus usuarios en función de aspectos como su raza, origen étnico, ideología, creencia religiosa, información relativa a su salud, actividad sindical u orientación sexual. En España, donde Facebook tiene unos 28 millones de miembros, el porcentaje de usuarios que han sido perfilados de esta forma por la red social se eleva al 72%, lo que equivale a 20 millones de personas. El 43% de la población española.
Son los resultados de un estudio elaborado por cuatro investigadores españoles de la Universidad Carlos III, que han comprobado que Facebook sigue permitiendo a las empresas que se anuncian en su plataforma seleccionar ante qué usuarios quieren mostrar su publicidad basándose en este tipo de etiquetas. Todo ello a pesar de que el Reglamento General de Protección de Datos (RGPD) europeo, de plena aplicación desde mayo de 2018, prohíbe expresamente recopilar y emplear con propósito comercial este tipo de información.
Los investigadores llevaron a cabo varios análisis para comprobar si Facebook cambiaba sus prácticas de perfilado antes y después de esa fecha. el resultado fue negativo. “El porcentaje de usuarios etiquetados con intereses sensibles en la Unión Europea sigue siendo prácticamente el mismo cinco meses antes y nueve meses después de que el RGPD fuera promulgado”, recogen en el estudio.
Para la realización de la investigación los autores analizaron las 126.000 etiquetas que Facebook asignó a los 4.500 voluntarios que instalaron una herramienta para estudiar las prácticas de la red social. De esas 126.000 etiquetas, seleccionaron 2.092 “potencialmente sensibles” para los usuarios. A continuación, intentaron anunciar su herramienta de investigación a través de Facebook, segmentando a los usuarios que verían el anuncio en base a esas 2.092 etiquetas. La red social no puso ningún problema.
El estudio abarcó a los usuarios de los 197 países donde Facebook permite hacer publicidad. Los resultados fueron los mismos en todos ellos, a pesar de que un buen número de leyes sobre privacidad aprobadas en los últimos años, como las de Argentina, Chile o California, han instaurado protecciones similares a las europeas.
Contactado por este medio, Facebook remite a sus políticas para anunciantes. En ellas especifica que el perfilado de los usuarios se basa en los “intereses” que la plataforma infiere de su navegación, “no a sus atributos personales”. “Facebook prohíbe a los anunciantes utilizar nuestros productos publicitarios para discriminar a las personas”, afirma la empresa, explicando que impide “excluir injustamente a grupos específicos de personas para que no vean los anuncios”.
Facebook recuerda además que los anunciantes no tienen acceso a información individualizada de los usuarios, sino que solo escogen a los grupos ante los que quieren mostrar su publicidad. También señala que modificó sus políticas sobre anuncios discriminatorios en 2018, cuando otra investigación reveló que había permitido prácticas como mostrar ofertas de empleo solo a hombres.
“La pregunta que hay que hacerle a Facebook es si han hecho un estudio sobre cuál es la correlación entre ser algo y estar interesado en algo”, explica en conversación con eldiario.es Ángel Cuevas, autor principal de la investigación. “Es algo lo bastante sensible como para hacerlo, pero no dan ninguna información. Nosotros intuimos que existe una correlación bastante alta”, avisa.
Sin control
El usuario de Facebook no tiene capacidad de decisión sobre las etiquetas que la plataforma le asigna como “intereses”, de los que deriva directamente qué “preferencias de anuncios” tiene. Estas se conjeturan automáicamente a través de su navegación. Lo único que puede hacer un usuario cuando es etiquetado con algún “interés”, incluido uno sensible, es impedir que Facebook lo utilice para enviarle anuncios. La opción está disponible accediendo a Configuración, después a Tu información de Facebook, luego a Acceder a tu información, a continuación a Anuncios y empresas y por último a Intereses de anuncios.
No obstante, la segmentación y perfilado de usuarios no ocurre solo durante el tiempo que estos pasan en Facebook, puesto que un gran número de terceros suministran información a la red social sobre la actividad de los usuarios en sus respectivas plataformas. Datos como qué aplicaciones ha tenido abiertas o que artículos han estado en su carrito de la compra acaban en las bases de datos de la compañía dirigida por Mark Zuckerberg. La semana pasada la compañía habilitó una nueva herramienta para consultar qué información le proporcionan terceros a Facebook e impedir que esta quede vinculada a la cuenta de cada usuario (aunque permite no borrarla).
“La asignación de estas etiquetas es algo que, en la práctica, no se puede controlar. Un usuario muy avanzado podría, pero requiere esfuerzo, porque tienes que estar entrando a estas preferencias cada poco tiempo, como mínimo cada semana, para revisar y eliminar todo aquello que te hayan asignado. Además, requiere un conocimiento amplio de cómo funciona Facebook por dentro”, refleja Cuevas.
25 etiquetas sensibles eliminadas... de 2092
Los investigadores de la Carlos III llevan varios años estudiando cómo segmenta Facebook a sus usuarios. En 2017 lanzaron la Facebook Data Valuation Tool, que permite consultar en tiempo real la rentabilidad que los datos personales de un determinado perfil tienen para Facebook en cada momento y que ha servido de base a este estudio. Tras esta investigación han añadido a esta herramienta la funcionalidad de eliminar las etiquetas sensibles que asigna Facebook de forma más sencilla.
Durante este tiempo investigando a Facebook el equipo ha comprobado que, tras la entrada en vigor del RGPD en mayo de 2018, la red social solo ha eliminado 25 de las 2.092 etiquetas potencialmente sensibles identificadas por los investigadores. Curiosamente, cinco de ellas habían sido señaladas directamente como “muy sensibles” por la Agencia Española de Protección de Datos en una multa de 1,2 millones de euros que impuso a Facebook en 2017.
Eran “cristianismo”, “islam”, “corán”, “socialismo” y “comunismo”. ¿Por qué ha considerado Facebook que esas etiquetas eran sensibles y no ha eliminado otras? La plataforma no ofrece datos. “Desconocemos el criterio seguido por Facebook para tomar esa decisión”, revela Cuevas: “Por qué de repente Facebook decide que socialismo y comunismo es algo que debe estar fuera de su sistema de intereses publicitarios, cuando el interés PSOE o PP siguen figurando, con qué criterio y quién lo decide, es algo que sería muy interesante conocer, pero a nosotros no nos lo van a explicar”, lamenta.