Facebook reconoce que tiene “mucho trabajo por hacer” para luchar contra el machismo tras la denuncia de sus revisores
Facebook reconoce que aún le queda “mucho trabajo por hacer” para evitar el discurso del odio y los ataques machistas en su red social. “Nos tomamos muy en serio este asunto y por eso se está proporcionando un entrenamiento en profundidad a los revisores”, dice un portavoz de la compañía a eldiario.es tras la publicación de varios artículos que revelaban las contradicciones en el sistema de censura y las condiciones laborales de sus revisores de contenido.
Las fuentes consultadas por eldiario.es, trabajadores de diferentes oficinas donde se decide lo que se borra y lo que no en esta red social, aseguraron que en Facebook se permite “el fascismo y el acoso machista”. La empresa asegura que sus políticas son estrictas, tanto en lo relacionado con el discurso del odio como en los ataques basados en el sexo y el género de las personas.
Facebook explica como ejemplo que de julio a septiembre del año pasado borró 2,9 millones de piezas de contenido que atentaban contra lo que la plataforma considera “características protegidas”. Según las normas comunitarias de la compañía, que pueden consultarse en Internet, esas características incluyen la “raza, etnia, nacionalidad, religión, clase, orientación sexual, sexo, identidad sexual y discapacidad o enfermedad grave”. Más de la mitad de esas piezas relacionadas con el discurso del odio (el 52%) fueron detectadas de forma automática por sus sistemas, según la compañía. Uno de los trabajadores que ha trabajado en la censura de Facebook asegura sin embargo que “lo único que se borra es lo que nos llega a nosotros, los analistas”, y que la cantidad de casos de acoso machista y otro tipo de violaciones es tan numeroso que se dejan pasar la mayoría.
La compañía asegura a este diario que no tiene más estadísticas sobre el borrado de contenidos por sus sistemas de Inteligencia Artificial y aprendizaje y automático. También, que estas cifras han sido las últimas publicadas.
Albert, otra de las fuentes con las que habló eldiario.es, se muestra sorprendido por los sistemas tecnológicos de los que habla Facebook: “Me llama la atención especialmente. Si tuvieran esos mecanismos no se molestarían en contratar a miles de analistas por todo el mundo”. Albert va más allá: “No quieren obviamente que se sepa que miles de personas anónimas pueden ver tu perfil de Facebook o Instagram si alguien te denuncia, porque eso haría a mucha gente plantearse el seguir en esas plataformas”.
Por su parte, Johan también abunda en este punto: “Nos hacen creer a los analistas día a día que nosotros somos una especie de guardianes protectores del mundo, que solo de nuestro trabajo depende la seguridad de los usuarios en esas plataformas, por lo que si tuvieran esas cosas, estarían mintiendo a miles de analistas”.
No obstante, sí que hay evidencias de que algunos algoritmos automáticos se encargan de detectar y bloquear provisionalmente contenidos explícitos por ejemplo de desnudos. Esos casos luego pasan a un revisor que confirma manualmente si el contenido debe ser borrado. Facebook ha reconocido en declaraciones anteriores a otros medios de comunicación que estos algoritmos están todavía en fase de desarrollo y que la mayoría del contenido es moderado por personas.
El AHT, una herencia de los call centers
La red social también niega que a los revisores de contenido se les exija evaluar un número en concreto de ítems al día y aseguran que se les anima a tomar todo el tiempo que necesiten. Desde su experiencia como analista, Johan asegura sin embargo que “según cada tipo de contenido hay un objetivo de tiempo y en algunos, incluso, está por debajo de los 30 segundos de media. Es verdad que si algunos perfiles tienen dos fotos tardas cinco segundos, pero otros con 20 comentarios es imposible resolverlos en 30 segundos”.
Los trabajadores, al menos en la oficina subcontratada por Facebook en Varsovia, también están sujetos al concepto AHT, cuyas siglas corresponden a Average Handle Time (Tiempo medio de manipulación). Se trata de una métrica heredada del sector de los call centers o servicios de atención al cliente, que indica “la duración media de una transacción”. Los analistas que trabajaban en Varsovia y Lisboa estaban subontratados por Accenture y la última oficina que Facebook ha abierto en Barcelona para censurar contenidos está gestionada por Competence Call Center.
“AHT es como llaman al objetivo de lo que debe tardar cada uno en procesar cada ítem. La media de todo el equipo en calidad, output y AHT es lo que muestran al cliente cuando viene”, explica Johan. El output es la cantidad total de perfiles que los censores analizan al día y la calidad es el concepto que usa la empresa para determinar si lo hicieron de manera correcta o no. “Con esos dos datos más la calidad se hace la media de cada equipo”, continúa.
Facebook desmiente a los analistas
Un portavoz de la red social asegura a este medio que algunos de los testimonios de cómo se aplicaba la censura en sus centros “no reflejan las políticas de Facebook y no cumplen con los altos estándares que esperamos de las personas que revisan el contenido”. Así, la empresa desmiente algunas de las afirmaciones vertidas por los analistas de contenido en eldiario.es.
Facebook confirma que los analistas no pueden usar teléfonos móviles ni relojes inteligentes mientras hacen su trabajo pero aseguran que los revisores no reciben ningún incentivo por denunciar a otros compañeros que incumplan las estrictas normas internas, como denunciaron dos trabajadores en eldiario.es. Johan y Albert insisten en su testimonio: “En cada equipo se selecciona a alguien para que actúe de chivato en caso de que algún analista incumpla estas normas”.