“Lo más duro que vi fue un vídeo de cómo empezaban a abusar de una niña, tendría unos cinco años. Esto me marcó muchísimo porque en ese momento llegué a sentir cómo le estaban arrebatando la infancia, le arrebatan toda la felicidad”.
Experiencias similares salen a la luz en cada conversación con los moderadores de Meta. Son los encargados de que los mayores horrores que los usuarios intentan subir a Facebook e Instagram no aparezcan ante el resto de usuarios. Decapitaciones, pederastia, terrorismo. “Son cosas que nadie debería ver nunca”, deja claro uno de ellos en conversación con elDiario.es. Los ojos de estos trabajadores son los únicos que llegan a verlas, apartándolas del resto de miembros de la plataforma.
Pero esa no es su única labor. Su papel no solo consiste en pulsar un botón y borrar el vídeo de un asesinato o bloquear la emisión en directo de un suicidio. Deben revisar el contenido y etiquetar lo que está pasando para que la inteligencia artificial sea capaz de identificarlo y pararlo por sí misma en el futuro. Tienen que prestar atención a imágenes que nunca se olvidan y calificarlas lo mejor que puedan.
Es uno de los trabajos más ocultos y terribles de la sociedad digital. Los 1.800 moderadores que Meta tiene en Barcelona denuncian que lo han llevado a cabo sin apenas preparación psicológica y bajo una enorme presión por parte de sus superiores. La subcontrata para la que trabajan, Telus International, se comprometió con la corporación de redes sociales a que cada uno de ellos revise al menos 300 tickets de moderación al día con un 89% de acierto. Si rozan o bajan de esas cifras, hay consecuencias.
“Se supone que podemos llamar a un número de teléfono de apoyo. Yo intenté llamar y localizar a algún psicólogo después de ver un vídeo de cómo mutilaban a un menor de edad, pero no había ninguno disponible. Envié incluso un mail al team manager. Me dijeron que sí, que en un momento me llamaban, que no me preocupara. Tuve que hacer siete u ocho llamadas y al final no pude hablar con nadie. Pasaron 20 minutos y absolutamente nadie me atendió”, relata el mismo moderador.
Meta impulsó la creación de varios de estos centros de moderación de contenidos en Europa a partir de 2018, como reacción al escándalo de Cambridge Analytica y el Brexit. Un año después elDiario.es reveló por primera vez en España cuál era la situación que debían afrontar estas personas cada vez que se sentaban frente al ordenador de la oficina. “Es un trabajo muy duro: estuve un mes y yo salía de ahí con la cabeza machacada. Estás 8 horas, cronometradas, sin parar de consumir vídeos y fotografías en las que muchas veces hay pedofilia, agresiones a menores, a animales...”, relataba a este medio una moderadora del centro de Lisboa.
Ahora los moderadores de Meta en Barcelona han dicho basta. Una decena de ellos contó el pasado noviembre a La Vanguardia cómo su trabajo les estaba costando la salud mental. Varios han decidido llevar su caso a la justicia. En febrero el juez decretó que el trastorno mental que sufre uno de los jóvenes, derivado de ver cada día esos contenidos brutales, debe ser considerado como accidente laboral y le concedió la incapacidad absoluta.
Esta semana el moderador ha decidido ir más allá y ampliar a la propia Meta la querella criminal que había interpuesto contra la subcontrata Telus y seis de sus responsables, como ha adelantado también el medio catalán. Alega que la corporación de redes sociales es directamente responsable de las “condiciones de trabajo equiparables a una verdadera tortura psicológica, caracterizadas por un incumplimiento continuo y flagrante de la normativa laboral en materia de prevención de los riesgos laborales”, reza el texto de la querella, al que ha tenido acceso elDiario.es.
Las condiciones de trabajo son equiparables a una verdadera tortura psicológica, caracterizadas por un incumplimiento continuo y flagrante de la normativa laboral
Pide al juez que condene a Meta por tres delitos: uno por violar los derechos de los trabajadores, otro de lesiones por imprudencia y otro contra la integridad moral. “Todo viene motivado por la declaración en sede judicial de uno de los responsables de la subcontrata en Barcelona, que explicó que todas las directrices en lo que a materia laboral se refiere, que es lo que resulta más grave para nosotros, vienen impuestas por Meta”, apunta el abogado del moderador, Francesc Feliu.
“¿A qué me refiero con eso? Pues, por ejemplo, al número de tickets, de vídeos en definitiva, que tienen que visualizar al día. Según la empresa, son unos 300. Nosotros defendemos que es una cifra incluso superior. Pero es que ya 300 al día es algo inhumano”, continúa el letrado, del despacho Espacio Jurídico Feliu Fins, que representa también a otros 25 moderadores que han presentado denuncias ante Inspección de Trabajo. “Luego está el nivel de acierto al etiquetar el contenido, que debe estar por encima del 89%. Si fallan más, les pueden llegar a despedir”.
“Y todo ello sin recibir ningún tipo de formación real de lo que iban a ver y cómo gestionarlo”, recalca. elDiario.es ha contactado con cinco moderadores y todos niegan que la empresa haya hecho un test de riesgo psicosocial antes de este 2024.
La empresa dice que menos del 1% de bajas están relacionadas con la salud mental
Meta ha evitado hacer declaraciones oficiales tras ser contactada por elDiario.es. La compañía estadounidense se ha remitido a la información pública sobre cómo gestionan la moderación de contenidos, que incluye una combinación de tecnología, reportes de los usuarios y revisiones manuales de equipos como el de Barcelona. La corporación asegura que mejora sus algoritmos de manera continua y que el porcentaje de contenidos brutales que pasa a moderación humana es cada vez menor.
Telus International ha expresado que “todos los moderadores de contenido reciben una formación extensa, que incluye capacitación en resiliencia y práctica en vivo con personal experimentado antes de trabajar de manera independiente”. “Una vez que trabajan de forma independiente, los miembros del equipo reciben apoyo continuo a través de evaluaciones regulares, capacitación continua y programas interactivos con profesionales de la salud mental”, describe en un comunicado enviado a este medio.
La compañía dice que contrata a “consejeros calificados, guiados por psicólogos, que brindan servicios confidenciales y completos de salud mental. Los miembros del equipo también pueden solicitar descansos o sesiones de emergencia 1 a 1 con consejeros en cualquier momento si están expuestos a contenido perturbador”. “Se estima que los problemas de salud mental relacionados con el trabajo representan solo el 1% del total de bajas en la empresa”, afirman. Estas han llegado a estar por encima del 20% en los últimos años.
“Los moderadores de contenido en Telus International son compensados un 66% por encima del convenio colectivo de contact centers debido a su importante rol social”, recalca la empresa. En 2022 Telus fue multada por Inspección de Trabajo por deficiencias en la evaluación y prevención de riesgos psicosociales en los puestos de trabajo. La sanción ascendió a más de 40.000 euros.
“No sabíamos dónde nos metíamos”
“Ellos empezaron a reclutar en mayo del 2018. Yo fui de la primera hornada”, explica otra ex moderadora, que como casi todos los contactados para esta información, prefiere no dar su nombre para no aumentar aún más su exposición pública. “Ellos contrataron a mucha gente de golpe, de muchas nacionalidades, porque es lo que necesitaban para cubrir varios mercados. Qué mejor ciudad que Barcelona, que es pluricultural, para poner su sede. Y aparte en un país como España, que para ellos (y esto lo entendimos después) es barato y según pensaban, era laxo en sus leyes laborales”, continúa.
“En los mails y en las entrevistas no te decían ni para qué empresa ibas a trabajar ni haciendo realmente qué. Lo único que te pedían era inglés. Pero ofrecían un contrato indefinido, un ticket restaurante de 9 euros al día y 24.000 euros brutos al año, que en aquel momento era la gloria”, recuerda la misma trabajadora, que abandonó Telus el pasado mayo.
“Como te decían que no te podían contar mucho, todo aparentaba ser serio. Hablaban de un puesto de community manager. En la entrevista te preguntaban cosas como qué animalito te gustaría ser. Nadie te preguntaba si alguna vez tuviste ideas suicidas o cosas por el estilo. Después te mandaban a un cuartito y te preguntaban si estabas dispuesta a ver 'contenido fuerte'. '¿Contenido fuerte como qué?', les pregunté. No explicaron mucho, solo que si estaba dispuesta retirar contenido feo de una página. Les dije que sí porque tenía dos sobrinitas pequeñas y no quería que ellas vieran ese tipo de cosas. Yo pensaba que me había ido fatal. Pero me llamaron”, relata.
Nos dio una ilusión enorme, ¡pensamos que íbamos a trabajar en Facebook! No sabíamos que en realidad habíamos entrado al basurero de Facebook
Solo una vez ya en la Torre Glòries, donde se instalaron las oficinas de moderación de Meta, supieron para quién iban a trabajar. “Entonces nos dio una ilusión enorme, ¡pensamos que íbamos a trabajar en Facebook! No sabíamos que en realidad habíamos entrado al basurero de Facebook”, ironiza. Había cosas extrañas, como que la empresa quería evitar todo contacto entre ellos limitando sus descansos a cinco minutos e impidiendo que comieran juntos. Pero lo dejaron estar, tomándolo como una práctica estándar de la multinacional.
Mientras, en la prensa corrían noticias de que la compañía de Mark Zuckerberg iba a abrir centros en Europa para combatir la desinformación para frenar escándalos de manipulación como el Brexit o Cambridge Analytica. “Nosotros creíamos que éramos parte de lo mismo. Cuando empezamos a trabajar y ver ese tipo de contenido me sorprendí, porque lo estaba llevando bastante bien. Pero en ese momento estás entusiasmado, pensábamos que si lo hacíamos bien nos iban a pasar a las fake news”.
“¿Sabes lo que pasaba si lo hacías bien? Que te pasaban a un equipo denominado high priority”, prosigue esta exempleada. Expone que el trabajo de moderación básico en las redes de Meta consiste en conocer muy bien las normas de la plataforma respecto a qué contenido hay que bloquear y cuál no. Los moderadores que consiguen un buen rendimiento en una determinada área pasan a ser considerados “especialistas” en ella por el sistema interno. “High priority consiste en ver los contenidos más pesados, como suicidios en directo. A mí me enmarcó ahí y no veía otra cosa”.
Con el tiempo, la exposición a estos contenidos termina provocando “pesadillas muy vívidas” en los moderadores, han declarado varios de ellos en sus conversaciones con este medio. En el caso de esta ex moderadora, que también ha llevado a los tribunales a Telus, veía en su cuerpo los mismos cortes y autolesiones que debía moderar cada día.
Tú quieres seguir porque ves que tus compañeros siguen. Solo años después hemos podido saber que muchos estaban pasando por lo mismo
“Le dije a la empresa varias veces que me sacaran de ese contenido, al menos un tiempo, pero no hicieron nada. Se lo pedí a los psicólogos, pero me dijeron que ellos no podían hacer de enlace con la empresa. Todo se terminó convirtiendo en un cóctel de angustia y rabia. Mi cabeza era una bomba. Tenía ataques de pánico en la oficina. Pero tú quieres seguir porque ves que tus compañeros siguen. Solo años después hemos podido saber que muchos estábamos pasando por lo mismo”, rememora emocionada.
“Una vez le dije a una psicóloga que me daban ganas de tirarme por una ventana, pero por una ventana de la oficina para que todo el mundo se enterara de lo que pasaba dentro. Fue en un momento de debilidad y pensé que después de eso me iban a despedir. Pero no pasó nada”, confirma. “¡Lo único que te decían era que el día que tengas rabia cojas un cojín y lo tires contra la pared!”.
“Lo arrastraremos toda la vida”
“Yo voy a una terapia externa. En la empresa te facilitan algunas horas para que puedas hablar con un psicólogo, pero no es suficiente”, dice otro moderador, que sigue trabajando para Meta. “Me alegra bastante que todo esto esté saliendo a la luz y que tenga que pagar por esto. Ellos nos amenazan con cerrar la empresa e irse de aquí, pero lo que están haciendo no es suficiente. No es suficiente para pagar el daño psicológico que nosotros estamos recibiendo, porque el día de mañana si ellos quieren cerrar y se van para otro lado, pues para ellos ya está, se acabó. Pero nuestra salud mental se acabó junto con la empresa. Lo arrastraremos toda la vida”, lamenta.
¿Cómo se ha podido llegar a esta situación? El asunto se enturbia al hacer esta pregunta a las fuentes involucradas. elDiario.es ha hablado con varios moderadores, con el comité de empresa formado por UGT Y CCOO y con el sindicato independiente FIST (Fuerza Independiente Sindical de Trabajadores), que ha espoleado a los trabajadores a llevar sus casos ante la justicia y la Inspección de Trabajo.
Los moderadores coinciden en señalar un ambiente de presión irrespirable dentro de la empresa, así como acusaciones de sus superiores de haber exagerado su situación emocional para conseguir bajas fraudulentas. Mencionan llamadas inquisitoriales diarias para “preguntar cómo se encontraban” para todos los que daban el paso de coger la baja. Muchos acusan al comité de empresa de no haber hecho lo suficiente.
También recuerdan el miedo a perder el sueldo por encima de mercado que paga la subcontrata de Meta. Todo ello combinado con la situación de desarraigo de buena parte de la plantilla: se trata de trabajadores de múltiples países escogidos para el puesto precisamente por su conocimiento de diferentes idiomas y contextos culturales, lo que facilita su labor de moderación. A algunos el sobresueldo les permite enviar más dinero a sus familias en sus países de origen.
“El funcionamiento draconiano dentro de la empresa no es exclusivo de Telus, sino que se extiende a todo el sector del contact center. Es como una picadora de carne. Son empresas en la que tú eres una batería que alimenta el negocio y cuando te gastas, se acabó. Te has quemado y ya está. Les da absolutamente igual la salud de los trabajadores”, denuncia Miguel Ángel Bachs, portavoz de FIST, que tiene una sección sindical en Telus.
Las medidas que dicen haber acordado para prevenir esto, como el departamento de psicólogos, son meramente cosméticas
“El problema es que en este caso se ha unido con el tipo especial de contenido al que se ven expuestos los trabajadores”, prosigue, “y con la falta total de fiscalización de los sindicatos que integran el comité de empresa”. “Las medidas que dicen haber acordado para prevenir esto, como el departamento de psicólogos, son meramente cosméticas”, acusa el sindicalista.
Fuentes del comité de empresa dicen que sus negociaciones con la dirección “se centran en intentar una disminución este tipo de contenido pernicioso; que haya más apoyo psicológico y por supuesto se implanten todas las medidas necesarias para que los moderadores no sean tratados como simples robots sino como personas que filtran todo el contenido oscuro de las redes sociales”.
Mientras, los moderadores esperan a que la justicia dirima. Todos los que han participado en esta información dicen sentirse “aliviados” de que el asunto salga a la luz. “Te das cuenta que esto era un problema general, no de la mayoría, pero sí de muchos. Todo generado por el trabajo y empeorado por la actuación de la empresa. No lo hicieron sin querer. Sabían que estaban haciendo enfermar a la gente y les daba igual”.