Todas las guerras de propaganda moderna se libran también en redes sociales. En cada episodio polémico de actualidad se enciende la actividad en Facebook. No solo para compartir tus opiniones, también a veces para intentar censurar las del enemigo. En Facebook es posible: cualquier contenido puede “denunciarse” para que sea revisado por la red social y despublicado si es inapropiado. Más de 15.000 personas trabajan en la trastienda de Facebook en 20 ciudades de todo el mundo para decidir lo que se borra. eldiario.es ha tenido acceso al testimonio de trabajadores que analizaban el contenido en español de la red social, primero en Varsovia y luego en Lisboa. Cuentan que, cuando el debate se polariza, las denuncias se disparan.
Es lo que ocurrió del 1 de octubre de 2017, el 1-O en Catalunya. “Durante varios días estuvimos recibiendo denuncias de usuarios para que borráramos de Facebook los vídeos de cómo la Policía cargaba durante el 1 de octubre en Catalunya”. Nos habla Johan (nombre ficticio), un trabajador del equipo de censores de Facebook. “Recibimos cientos de denuncias para impedir la difusión en Facebook de la Policía actuando contra los manifestantes”. En todos los casos, se desestimaron las peticiones. No se borró de Facebook ningún vídeo, al menos que le conste a Johan.
La guerra de insultos en redes sociales por la crisis en Catalunya se topa con una paradójica desigualdad en las normas de Facebook: es más probable que se borren los ataques contra los españoles que los ataques contra los catalanes, según explican a eldiario.es trabajadores de la red social que se dedican a filtrar el contenido inapropiado.
No es que Facebook tenga algo específicamente en contra de catalanes o vascos, sino que la red social, en sus normas comunitarias, considera “discurso de odio o lenguaje que incita al odio todo contenido que ataca directamente a las personas por lo que denominamos características protegidas”. Dentro de esas características protegidas están la “raza, etnia, nacionalidad, religión, clase, orientación sexual, sexo, identidad sexual y discapacidad o enfermedad grave”.
La norma, así sobre el papel, parece clara y precisa. Pero cuando eres revisor de contenido en Facebook y tienes 30 segundos para decidir qué borras y qué dejas pasar, con un supervisor que te aprieta para que apliques estrictamente un criterio, la cosa se complica y las indicaciones se convierten en algo contradictorias, como relatan los trabajadores más críticos.
En este caso de la trifulca digital en Catalunya, la clave es la palabra “nacionalidad”. La aplicación estricta de esta norma produce una paradoja: no se puede decir “putos españoles” pero sí “putos catalanes”, por ejemplo, ya que Facebook no reconoce la catalana como una nacionalidad oficial. También los insultos contra los madrileños o los conquenses estarían permitidos, pero de esos no hay tanto volumen de contenido y denuncias a Facebook. Una comparación más acertada, según explican los revisores consultados, sería la referida a otras poblaciones como los vascos o los kurdos, que albergan nacionalismo pero no un Estado propio.
Facebook niega que este sea el funcionamiento interno de sus equipos de trabajo. “Este tipo de ataques no están tolerados en Facebook”, explica un portavoz de la compañía a eldiario.es. “Nuestras normas dejan claro que el discurso de odio no está permitido en Facebook y eso incluye aquellos ataques basados en lo que consideramos características protegidas”, asegura, abundando en lo que ya dejan claro sobre el papel las normas de Facebook. Los dos trabajadores consultados por eldiario.es, y que insisten en que el concepto “característica protegida” no se ha estado aplicando para la polarización con Catalunya, son personas que han trabajado para los equipos de gestión del contenido en español en dos oficinas diferentes de la subcontrata Accenture Internacional en las ciudades de Varsovia y Lisboa. Estos dos trabajadores no se conocen entre sí y nunca han hablado entre ellos antes de ser consultados por eldiario.es.
Feminismo y la manada
El auge del movimiento feminista en las calles de España también ha producido un contraataque reaccionario. “Tras las grandes manifestaciones feministas que se han producido en España, recibíamos muchas denuncias para eliminar comentarios machistas contra las manifestantes”. La libertad de expresión ampara la mayoría de las ofensas e insultos en Facebook, salvo que se establezca que es un insulto directo contra una característica protegida como es la raza o la condición sexual, pero esto no incluye los ataques machistas. La mayoría de aquellos comentarios pasaron los controles, como también los casos denunciados en sentido contrario para intentar el cierre de páginas de colectivos feministas.
El juicio a la manada provocó un terremoto también en redes sociales que se notó en las oficinas de la censura de Facebook. “Había muchos comentarios, entre en serio y 'en broma', apoyando a los violadores de la manada”, cuenta Johan. “Se denunciaron muchos pero no se borraron, no es lo que estipula Facebook”.
Hay más de 15.000 personas filtrando el contenido de Facebook para borrar lo inapropiado. Los trabajadores cuya primera lengua es el español se encargan tanto de España como de América Latina. Hasta hace unos meses, esto sucedía en un centro sumido en la oscuridad de una oficina de Accenture en Varsovia (Polonia). Hace unos meses, la sección se movió a Lisboa, donde ya había un equipo previo trabajando en español. En Lisboa cobran menos que en Polonia y tienen que solucionar, incluso, más casos diarios que en la oficina polaca. “En Lisboa te exigen entre 1.000 y 1.200 decisiones al día”, explica María (nombre ficticio), que también habla de su salario: “En torno a los 600 euros al mes”. En Barcelona, desde mayo de 2018 hay 800 personas subcontratadas por Facebook a través de la empresa de teleoperadores Competence Call Center.
El coqueteo o el sarcasmo con la simbología nazi siempre es un problema para Facebook. Johan recuerda el caso en el que los jefes les ordenaron borrar una foto de Albert Rivera caracterizado como un soldado nazi y con bigote de Hitler. La foto es similar a esta, que sobrevive en otras páginas y redes sociales de Internet.
“Las políticas dicen que una foto sin texto de denuncia se considera neutralidad o apoyo explícito al nazismo, y entonces se borró”. Sin una frase de condena o una explicación, la red social considera que una fotografía de Hitler o de alguien así caracterizado “está vanagloriando o elogiando el nazismo”. Si el comentario que acompaña la imagen explicitara que se trata de una crítica a Rivera y no a Hitler, quizá pasara la censura.
En otro caso parecido, empezó a circular la foto de un niño pequeño también disfrazado de nazi: “Nos dijeron que había que borrar. Pero luego decidieron parar de hacerlo porque entendieron que era algo irónico que no estaba ensalzando el nazismo”. Para la red social se trataba de una cuestión más relacionada con el contexto de la imagen que con la ideología. Pero no siempre hay tiempo o conocimientos suficientes para analizar el contexto.
Xenofobia, pero casi siempre con rodeos
Estas tensiones territoriales y simbólicas son solo parte del menú diario al que los analistas españoles de Facebook se enfrentan cada día. Racismo o bullying, además del resto de barbaridades habituales en cualquier lugar del mundo, completan la dieta de horrores que los revisores tienen que soportar y filtrar durante 8 horas al día.
Según Johan, en los últimos años se ha notado en las oficinas de la censura de Facebook en español un incremento de mensajes reaccionarios contra la inmigración, así como contra el feminismo. “En la línea con el discurso de Vox”, explica, y casi siempre con fórmulas indirectas que encajan con la libertad de expresión garantizada por Facebook y no con los requisitos para que los comentarios sean borrados. “La mayoría de perfiles denunciados por racismo son racistas pero no de forma obvia, así que no puedes borrarlos porque no están insultando de una forma directa”, explica Johan. Habla de cómo algunos sofistican el discurso hasta el punto de complicarles a los analistas el borrado de comentarios: “Nunca vas a ver o muy raramente, a gente diciendo 'odio a los negros'. Pero sí ves comentarios que son xenófobos y racistas como 'no tengo ningún problema con los negros, pero deberían irse a su país'”. El moderador lo resume con esta frase: “Esto es muy común en España”, ellos lo veían en Facebook, “pero siempre ha pasado desapercibido”.
La línea entre lo que deben permitir y lo que no es siempre difusa. Si se compara por ejemplo directamente a la persona con un animal, la censura sí actúa. Es diferente si la frase aparece de una manera más sofisticada: “Si leemos cosas como 'los negros son buena gente, pero parecen monos', lo borramos. Pero si ponen 'qué bonitos son los monos, aunque me recuerdan un poco a los negros', eso ya no, porque no es lenguaje directo”. Johan, como sus compañeros, actúa bajo la máxima que les inculcan su jefes: “Si no es evidente, no se puede hacer nada”.
“Con tanto volumen de trabajo no se pueden analizar bien todos los comentarios racistas que llegan. Se dejan pasar muchos”, explica. Es el fruto de las agotadoras jornadas de trabajo y la presión a la que están sometidos para llegar a los objetivos: “Se puede poner una foto de un plátano y un nombre negro y no pasa nada”, continúa Johan. Lo que en la Liga de Fútbol Profesional sería delito, en Facebook es solo una foto más.
El bullying desborda Facebook
bullyingMientras trabajaba en Polonia, Johan también recibió mucho contenido denunciado sobre bullying procedente de Facebook en español, aunque advierte: “La mayoría no se denuncia. Una chica o un chico que sufre bullying lo que normalmente hace es borrarse la cuenta”. Habla de casos concretos, como el sarcasmo de los acosadores a la hora de insultar a sus víctimas: “Si a un chico le hacen bullying porque, supongamos, es muy gordo, le dicen cosas como 'qué delgado estás'. Es cruel, es sarcástico, pero no lo puedes borrar. O cosas como 'qué rápido corres'. Tampoco”.
Johan asegura que los machistas, los acosadores y los fascistas encuentran en Facebook un lugar donde campar a sus anchas, ya que la empresa “hace actualizaciones todas las semanas para hacer que tú borres cada vez menos perfiles”. Cuantas más cuentas borren, menos dinero ingresa la red social. “Aunque Facebook diga que intenta proteger a las mujeres, a los menores o a los negros, hay muchas formas de evitar esa censura”, continúa.
Como aquellos que ponen contenidos racistas, los machistas también camuflan su discurso: “No ponen 'quiero matar a todas las mujeres'. Lo hacen con comentarios más suaves. Cosas como que 'las mujeres deberían estar en la cocina' o 'las mujeres deberían estar limpiando y en su casa' se pueden poner perfectamente”, dice Johan.
“Me llegaron dos palizas en vídeo procedentes de América Latina”, explica María. “Era un apuñalamiento en una pelea donde se veían todos los detalles. Lo tuve que dejar. No quise verlo”. Ese mes, la analista asegura que no cobró el bonus correspondiente a la calidad, que como ya adelantamos el lunes, ha de situarse en un nivel mínimo de un 98% de aciertos en la revisión de sus supervisores. “El ritmo de trabajo puede llegar a los 30 segundos por caso en las cosas escritas, pero si son vídeos pierdes mucho más tiempo y, por consiguiente, el objetivo”, prosigue.
María recuerda otro caso en el que un padre pegaba un fuerte bofetón a su hijo: “Solo se veía la bofetada, pero se podía intuir que le había dado antes y que le iba a seguir pegando. El niño estaba aterrorizado”. Según la moderadora, “si es solo un bofetón, por muy fuerte que sea el golpe, no se quita. Si son dos, sí”. En esta ocasión, María tuvo que marcar el contenido como 'Ignorar'. Nunca visitó al psicólogo, aunque sí recuerda que algunos de sus excompañeros iban con asiduidad: “Estaba disponible todos los días a ciertas horas”. Johan tampoco fue nunca al psicólogo de la oficina de Varsovia.
Hasta hace poco más de un año, los censores trabajaban con una app externa a Facebook llamada Highlights. “Podías chequear más perfiles al día e ibas muy rápido, porque te subrayaba en los comentarios las diferentes posibles violaciones”. Pone ejemplos, como que “en amarillo se resaltaban las palabras relacionadas con pornografía, en rojo las relacionadas con bullying y en morado, con drogas”. Sin mediar palabra y de un día para otro “prohibieron esta app”. Los censores de Facebook se quedaron aún más solos con sus maratonianas jornadas, su pantalla para ver barbaridades y sus sueldos rozando el SMI.