En una oficina sin ventanas, cientos de personas fijan la mirada en una pantalla durante 8 horas para analizar una a una las miserias de la humanidad y determinar lo que puede ser visto y lo que no. Es 'el búnker' de Facebook en la ciudad polaca de Varsovia, uno de los 20 centros que existen en el mundo para administrar censura sobre los comentarios, vídeos y fotos que 2.271 millones de personas publican cada día. eldiario.es ha tenido acceso a fuentes de los centros de Varsovia o Lisboa y a documentos que revelan las condiciones en las que se toman las decisiones sobre la red de contenidos con más impacto del mundo.
Insultos, drogas, abusos sexuales, terrorismo, decapitaciones, pezones. Existe un mito de épica tecnológica sobre algoritmos que retiran automáticamente contenidos inapropiados en Facebook. Detrás de esa idea moderna y aséptica de la censura, hay en realidad más de 15.000 revisores de contenido, personas que se dedican a filtrar los excesos de medio mundo, como Albert o Johan, que desde su experiencia señalan la arbitrariedad de las normas para decidir lo que se publica o lo que no. “Es imposible no cometer errores porque el sistema es muy contradictorio”.
El trabajo de los que filtran el contenido de Facebook es trascendental, confidencial y también precario. Los trabajadores de la censura en la oficina de Varsovia o Lisboa cobran un salario de unos 700 euros al mes, subcontratados a través de consultoras internacionales como Accenture o empresas de trabajo temporal. No pueden decir a nadie que trabajan para Facebook, a quien por escrito siempre se refieren como “el cliente”. Para este reportaje, tres personas con experiencia en este trabajo han pedido que protejamos su identidad y ocultemos sus nombres reales.
Un revisor de contenido está siempre vigilado: si alguien saca el móvil del bolsillo o una botella de agua, será sancionado por los jefes, que tienen un sistema para que los trabajadores se denuncien unos a otros a cambio de premios por buen comportamiento. Para toda la jornada laboral tienen un contador de 30 minutos de descanso, que se tienen que dosificar a lo largo del día para comer, ir al baño, estirar las piernas; si alguien tarda 20 minutos en comer, es mejor que no tenga un problema de estómago ese día porque sobrepasaría fácilmente el límite estipulado.
Así funciona la revisión de contenidos
Los equipos de trabajo se dividen por tipo de contenido y por idioma. En Varsovia y en Lisboa se ha filtrado en los últimos años el contenido en español. Hace unos meses se ha abierto oficina en Barcelona. Cada moderador tiene en su puesto una pantalla que les va mostrando los casos de contenidos en Facebook que acumulan más 'denuncias' de usuarios que los consideran inapropiados. Cada vez que un número relevante de personas denuncia ('reportar', en lenguaje de Facebook) un contenido, este acaba llegando a una de esas pantallas. Hay dos opciones: 'Delete' para borrar el contenido o 'Ignore' para dejarlo publicado.
“Analizamos entre 400 y 600 casos diarios. Tenemos 30 segundos para decidir en cada caso. No siempre da tiempo a tomar decisiones adecuadas”, explica Johan. Decisiones como las de estos ejemplos, recogidos en un documento de formación para nuevos trabajadores del equipo de moderación de Facebook, al que ha tenido acceso eldiario.es. Repasamos con Johan y Albert lo que habría que hacer en cada caso, según su experiencia.
“Prestad atención a los síntomas del cáncer”, dice la imagen. En este caso, a pesar de que Facebook no permite los pezones en su red social con un algoritmo automático que ya ha empezado a funcionar (y que a veces borra por error obras de arte clásico donde aparece el pecho de una mujer), según las normas el moderador debe desbloquear y publicar el contenido ya que se trata de una imagen divulgativa sobre salud y no una imagen de desnudo explícito o pornográfico.
En casos como este, el moderador tiene que hilar fino en muy poco tiempo. Primero debe buscar en Google a qué se refiere este meme. ¿Es un caso de bullying infantil? Encontrará que el diálogo de los rótulos es real y pertenece a una entrevista en televisión a una niña sobre su obesidad. Pero la obesidad no está considerada como una discapacidad. “Ofender a alguien no es motivo para borrar nada, salvo que se considere un colectivo protegido como los discapacitados. Pero la obesidad no es una discapacidad, así que habría que saber si la niña tiene algún tipo de problema mental”. Hay que decidir en 30 segundos. Johan marcaría 'Ignorar'.
Hay una categoría específica en Facebook para etiquetar todo contenido que invite a la autolesión. En teoría, con las normas en la mano, sería un caso de borrado. Pero Johan apunta: “Como es un dibujo, la sensibilidad cambia. Hay muchas imágenes así en Facebook que no se borran. Si vemos varias así, entonces sí que al menos avisamos a los superiores para que lo notifiquen a las autoridades”, algo que pasa solo con las cuentas de algunos países.
“Recuerdo este caso”, dice Johan. Es el logo del Frente de Liberación Nacional de Córcega. “Por alguna razón, en una sesión de formación semanal nos dijeron que era una organización terrorista pero que no lo marcáramos como un borrado por terrorismo”, que es una etiqueta en su sistema de revisión, “sino como un borrado general sin especificar por qué”. El FLNC renunció a la actividad armada en 2014.
Entre las fotos que se muestran a los trabajadores en formación de Facebook, en la documentación a la que ha tenido acceso eldiario.es, consta también la de un cadáver tumbado sobre una camilla y abierto en canal, con todos los órganos internos visibles. No la publicaremos en este reportaje. No se ven pezones ni genitales, pero sí intestinos, el hígado, los pulmones. Según las indicaciones de Johan, al tratarse de un contenido de divulgación médica o sanitaria, podría ser marcado como 'perturbador' y por tanto ser visible para cualquier usuario mayor de edad. “Este tipo de casos me sigue asombrando”, dice.
Estos son casos más o menos sencillos, de entrenamiento, aunque ya deja patentes que las decisiones son complejas. Las normas generales de Facebook son públicas, generales y extensas, en un ejercicio de transparencia reciente que sin embargo choca con la rutina de trabajo en los centros de filtrado. A falta de tiempo o cualificación, Facebook intenta imponer a sus trabajadores unas normas internas muy estrictas para cada caso posible, tan precisas que a veces se vuelven arbitrarias.
Los moderadores de Facebook reciben constantemente casos de usuarios que insultan a las mujeres en general o a alguna en particular. En ese caso, la norma pública de Facebook es clara: “No debes atacar mediante términos despectivos relacionados con actividades sexuales (p. ej.: puta, zorra)”. Sin embargo, aquí nos topamos con una de esas normas no escritas que denuncian los trabajadores. “Si la palabra puta está escrita dentro de una imagen o una foto de una mujer, como en un meme, se elimina. Pero si a una chica se le tilda de puta en el comentario de un post, eso no se borra”. ¿Por qué? “Pues no lo sé. Es lo que pide el cliente y tenemos que seguir las normas”, dice Albert.
Hay muchos hombres, chicos jóvenes, insultando a mujeres en Facebook. Algunos lo hacen tanto que al final comprenden los pequeños trucos para burlar la censura. “Al final acaban entendiendo cómo trabajamos. Hay muchas páginas de Facebook donde hay acoso machista, donde a las mujeres se les llama de todo y nadie está haciendo nada para evitarlo”.
Hitler no, Franco sí
“Si una persona hace comentarios para ensalzar a Hitler, se borra. El mismo comentario hecho por un español para ensalzar a Franco, se deja publicado”, explica Albert sobre lo que sucede, al menos, en la sede de Facebook en Varsovia. “El fascismo está permitido por Facebook”, dice abiertamente Johan, uno de los trabajadores que más tiempo ha aguantado en esta oficina. “Puedes hacerte una página llena de fotos de Mussolini o Franco y no pasa nada, está totalmente permitido”, continúa.
Según las fuentes con experiencia en la oficina de Varsovia, la compañía dudó en el pasado acerca de cómo tratar el contenido relacionado con Hitler. “Primero nos dijeron que no se borraba ninguna foto o comentario sobre Hitler; luego nos dijeron que lo marcáramos como 'disturb' [contenido al que no acceden los menores de edad], y luego nos volvieron a decir que borráramos”, explica.
María, otra fuente consultada por eldiario.es, que estuvo un mes trabajando en la oficina de Lisboa en 2017, asegura que la norma no hacía distinciones teóricas entre Franco o Hitler. “Pero es verdad que con Hitler y el nazismo son superrígidos. No se pueden mostrar fotografías de ellos sin decir el nombre o quién es. Si muestras solo una foto con el nombre y no dices ”dictador“ o denuncias un poco lo que hizo, lo tienes que eliminar porque Facebook intuye que lo estás ensalzando”.
A veces los trabajadores hacían preguntas sobre estas contradicciones. “Los jefes te lo explican con que, claro, dónde ponen el límite. Que si empezamos a borrar… dónde decimos basta. Es la excusa que ponen”, asegura Albert. La apología del franquismo no es delito en España y la apología del nazismo sí es delito en Alemania, pero las normas de Facebook van por libre, no dependen de las leyes de cada país donde tienen usuarios. Solo se adapta a cada idioma, pero la política de contenidos de Facebook es global y lleva sello norteamericano.
En investigaciones recientes, medios como Los Angeles Times han documentado cómo Facebook no solo permitía la existencia de grupos neonazis en EEUU sino que permitía que negocios u organizaciones pudieran hacer publicidad segmentada específicamente para sus usuarios, lo que sustenta el modelo de negocio de la red social.
Geopolítica en cada contenido
Tanto Albert como Johan destacan dobles raseros y mayor protección a colectivos específicos, independientemente de lo que digan las normas escritas. “Insultar a determinadas creencias o ideologías está de facto permitido e insultar a otras no. Hay algunas creencias o ideologías que están especialmente protegidas en Facebook”. La primera de ellas, según la experiencia de Albert y Johan, “es el sionismo”. Al menos en la oficina radicada en Polonia, donde la exterminación de los judíos durante el nazismo fue especialmente trágica. Según su testimonio, en Facebook se cumple la lógica de que toda crítica contra el sionismo o la política de Israel en Palestina corre el riesgo de ser identificada como antisemitismo. La llamada al boicot a Israel por sus acciones en Palestina está prohibida. “Las campañas del Movimiento de Boicot, Desinversiones y Sanciones (BDS) están prohibidas en Facebook. No nos las denuncian mucho, pero si las reporta alguien, hay que borrarlo”, explican. “No se puede ni llamar asesino a un soldado israelí que está pegando a un niño. También eso hay que borrarlo”.
Antes de convertirse en analistas de Facebook, los trabajadores pasan un entrenamiento de dos semanas para interiorizar las políticas de censura y practicar con ejemplos. En una de esas sesiones, cuenta Johan, una chica preguntó “qué es el sionismo”. La respuesta fue que era “una minoría perseguida en Palestina y por lo tanto, cualquier comentario contrario al sionismo tiene que ser eliminado”. En ninguna política pública de Facebook esto está así establecido, y en las normas internas no se deja tan claro por escrito, pero las fuentes consultadas aseguran que ese clima es el que diariamente se respira en el trabajo y por tanto tiene influencia directa en las decisiones que se toman en la oficina de Varsovia.
¿Cómo define Facebook el terrorismo? “Actos de violencia premeditados contra personas o propiedades a fin de intimidar a la población civil, el gobierno u organizaciones internacionales, con un propósito político, religioso o ideológico”. ¿Dónde pone el límite Facebook? Donde diga EEUU. Los trabajadores tienen acceso a un listado de organizaciones terroristas elaborado por el gobierno norteamericano. “Si un comentario ensalza a una organización o alguien comparte la foto de su logo y esa organización está en la lista, borramos”.
“Esto es problemático”, explican los trabajadores. “Hay gente que sube comentarios a Facebook porque considera héroes a grupos políticos armados que en muchos países no son considerados terroristas sino guerrilleros o soldados o líderes, pero en la lista de EEUU sí lo son”. Pedimos ejemplos. “Hamás en Palestina o el PKK en Turquía”. Hamás no está considerado un grupo terrorista por la Unión Europea, que tiene su propia lista de organizaciones terroristas. Pero la que cuenta es la lista de EEUU.
En ocasiones esa lista se queda corta. “A veces nos llegan de arriba órdenes específicas sobre organizaciones o personas que no están en esa lista. Te dicen, así de claro: a partir de este momento, hay que tratarle como terrorista. Y tú te preguntas… ¿quién lo decide?”, explican Johan y Albert.
Para tomar decisiones sobre un acto de guerra o sobre un atentado terrorista, los moderadores tienen que estar bien informados sobre lo que pasa en el mundo cada día. Los jefes les avisan por correo de acontecimientos que probablemente les vayan a dar trabajo: “Tiroteo en una Iglesia cerca de El Cairo. Todo el contenido que muestre el ataque o lo celebre, debe ser eliminado. Clasificamos el acto como atentado terrorista”, dice un superior a los analistas en un correo electrónico interno al que ha tenido acceso eldiario.es.
La cosa se complica cuando los censores, como hacía quien medía la longitud de la falda en las películas del blanco y negro, tienen que pararse a medir la longitud de la barba de los hombres árabes. “Es surrealista… Si nos llega denunciado el perfil o la foto de un hombre de Oriente Medio con barba larga… Tenemos que buscarle en Google para saber quién puede ser y decidir si lo etiquetamos como posible simpatizante terrorista. No sé cuántas veces hemos estado delante de la pantalla mirando la foto de alguien con barba, incluso pidiendo ayuda a otros compañeros, para decidir… ¿Este es terrorista o no? Es cómico... pero es triste”.
Facebook defiende la interpretación política que hace EEUU del mundo, dicen Albert, Johan y también María. “Y al resto de países que les den”. Esa asimetría se aplica no solo a cuestiones políticas. “Hemos visto vídeos de niños de países árabes diciendo en vídeos en su Facebook que se van a suicidar; eso a Facebook le da igual. Pero si lo hace un niño en EEUU o Europa, llaman a las autoridades”, como prometen hacer sin distinciones en sus normas públicas.
La probabilidad de que te borren un contenido en Facebook es directamente proporcional al poder y la capacidad organizativa del colectivo que se sienta aludido o agredido. Los sistemas automáticos para la censura son, reconoce Facebook, un proyecto en el que se está invirtiendo y que empieza a funcionar poco a poco. Pero por ahora el mecanismo requiere la denuncia pública y la revisión humana. Si hay un número suficiente de denuncias, eso llegará a las pantallas de los moderadores de Facebook.
Si un pequeño grupo de alumnos de un instituto hace bullying a través de Facebook a un compañero de clase, probablemente otros compañeros no se atrevan a denunciar la publicación y, en todo caso, permanezcan callados. Por tanto, el bullying persiste. “Además, para que podamos borrarle el perfil a alguien, y no solo el contenido, hace falta que incumpla las normas en más de un 30% de los posts”, explica Johan. “Seamos realistas: si elimináramos todos los perfiles de gente que acosa, comparte porno o vende marihuana en Facebook, tendríamos que borrar muchos perfiles. Y Facebook no quiere quedarse sin usuarios”.
Precaridad y trauma: “Vemos cosas que no te dejarían dormir”
“Le damos todo el valor al duro trabajo de nuestros revisores de contenido”, afirma un portavoz de Facebook a eldiario.es. “Todos reciben un salario por encima del estándar del mercado”. Los empleados de Facebook en Barcelona, Varsovia o Lisboa cumplen con el perfil de teleoperadores y de hecho suelen estar contratados a través de empresas de 'atención al cliente' como Competence Call Center en Barcelona. Esto permite a la empresa distanciarse legalmente de sus condiciones laborales, así como aumentar y recortar la plantilla con trabajadores temporales. El salario varía en las diferentes oficinas en diferentes partes del mundo, para adaptarse al mercado de trabajo local de la población inmigrante que maneje los diferentes idiomas que se necesiten, lo que permite la deslocalización y los salarios más bajos.
En cada centro, un grupo de jefes analiza aleatoriamente entre el 5% y el 10% de los casos moderados por los trabajadores para comprobar que las decisiones cumplen con lo que se les pide. “El objetivo es tener, por lo menos, un 98% de acierto cada mes”, dice Johan. “Si no lo tienes, tus opciones de ascender o de conseguir bonus trimestrales o mensuales se van al garete”, continúa. Los bonus no suelen ser superiores a 100 euros al mes.
La mayoría de los moderadores de Facebook son personas jóvenes, sin una cualificación específica, expuestas todo el día a horas de contenido extremadamente perturbador. “Hay un psicólogo para los trabajadores del equipo, pero no es obligatorio ir… Lo que vemos es muy fuerte y a un ritmo muy estresante”, confiesa Johan. Pederastia, asesinatos, vejaciones de todo tipo y discursos de odio en todas las direcciones. Los trabajadores no aguantan mucho en el puesto, suelen irse pronto, saturados. “Es un trabajo muy duro: estuve un mes y yo salía de ahí con la cabeza machacada. Estás 8 horas, cronometradas, sin parar de consumir vídeos y fotografías en las que muchas veces hay pedofilia, agresiones a menores, a animales... Está fatal pagado”, dice María de su experiencia en la oficina de Lisboa. Algunos trabajadores ya han iniciado acciones legales contra Facebook por causarles daños psicológicos derivados del síndrome de estrés postraumático. El medio estadounidense The Verge ha publicado un extenso relato de los horrores que viven los trabajadores de otro centro, en Phoenix (EEUU).
Los bonus de los trabajadores dependen de su resistencia a la hora de ver los vídeos que después censurarán o no. “Hemos visto cerebros desparramados, hemos visto niños muertos, hemos visto soldados pegando palizas a civiles hasta la muerte”, dice Johan. “Si no has sido lo suficientemente fuerte como para ver el vídeo hasta el final y has tomado una decisión antes, repercutirá en tu calidad”, lo que se traduce en menos bonus y compensaciones a final de mes. Por ejemplo, “si alguien se prende fuego en un vídeo, solo lo marcamos como censurado para menores de 18 años. Pero si la persona se muere en el vídeo por el fuego, hay que borrarlo. Así que tienes que ver el vídeo hasta el final”.