La extrabajadora de Facebook que ha provocado el mayor escándalo de malas prácticas en la red social desde el de Cambridge Analytica ha elegido dar la cara. Su nombre es Frances Haugen y trabajó en la corporación de Mark Zuckerberg hasta el pasado mayo, momento en el que decidió abandonarla y filtrar una gran cantidad de documentos internos. Esos informes, publicados por el Wall Street Journal, han mostrado que la multinacional era consciente de que su actividad provoca un impacto tóxico en la sociedad, pero que en la mayoría de ocasiones no hace nada para remediarlo.
“Había conflictos de interés entre lo que era bueno para la sociedad y lo que era bueno para Facebook”, explicó Haugen este domingo en el programa estadounidense de máxima audiencia 60 Minutos, de la CBS. “Facebook, una y otra vez, optó por optimizar sus propios intereses, como ganar más dinero”, aseveró.
Esta extrabajadora de Facebook, ingeniera informática de 37 años, formaba parte del equipo de “Integridad Cívica” de la compañía. Su misión era asegurarse de que la empresa tuviera “un rol positivo en la sociedad”. Decidió convertirse en una garganta profunda de Facebook porque la multinacional se había convertido en todo lo contrario a eso.
Los documentos filtrados por Haugen han revelado Facebook sabe que Instagram es tóxico para muchas adolescentes, ya que les hace sentirse peor con su cuerpo, pero que no actúa para evitarlo. También que los empleados de la red social descubrieron que ésta se usa para el tráfico de drogas y de personas en países en vías de desarrollo, que lo denunciaron ante la cúpula directiva y que recibieron una “respuesta tibia” por su parte. O que sus algoritmos destinados a disminuir la polarización y el discurso del odio provocaron todo lo contrario, pero Facebook no los cambió porque eran muy efectivos capturando la atención de los usuarios.
Facebook ha creado un sistema de incentivos que está dividiendo a la gente
Uno de esos informes apuntaba directamente al impacto de los algoritmos en el discurso político europeo. Según la extrabajadora de Facebook, los partidos se quejaron de que la red social les obligara a ser cada vez más y más agresivos en su propaganda para obtener visibilidad en la red social.
Es algo que también provocó la polarización de los contenidos de algunos medios de comunicación. “Cuando tienes un sistema que sabes que puede ser hackeado con ira, es más fácil provocar la ira de la gente. Y los editores dicen: 'Oh, si hago contenidos más airados, polarizantes y divisivos, consigo más dinero'. Facebook ha creado un sistema de incentivos que está dividiendo a la gente”.
“Cada nuevo idioma cuesta más dinero”
En la entrevista en 60 minutos la extrabajadora de Facebook continuó sacando a la luz informes que dejan en evidencia a Facebook. Un nuevo documento dirigido a sus directivos y destapado este domingo en el programa concluye que “el actual conjunto de incentivos financieros que generan nuestros algoritmos no parece estar alineado con nuestra misión como empresa”.
No obstante, una parte de su entrevista se centró en explicar cómo la red social perjudica especialmente a las sociedades de mercados secundarios para ella, aquellos cuya conversación no se desarrolla en inglés.
“Es realmente importante recordar que Facebook gana diferentes cantidades de dinero en cada país del mundo”, expuso Haugen. “Cada vez que Facebook se expande a una nueva área lingüística, cuesta tanto, si no más, hacer los sistemas de seguridad para ese idioma como para hacer el inglés o el francés. Cada nuevo idioma cuesta más dinero, pero hay progresivamente menos. Y así, por cuestiones económicas, para Facebook no tiene sentido que la plataforma sea segura en muchas de estas partes del mundo”.
Por cuestiones económicas, para Facebook no tiene sentido que la plataforma sea segura en muchas de estas partes del mundo
La consecuencia más grave de la práctica descrita por Haugen, que deja las plataformas con nula o muy poca supervisión en lenguas minoritarias, se dio en Myanmar. Los inspectores de la ONU que investigaron el genocidio contra los rohingya señalaron que Facebook tuvo un papel clave en los llamamientos a la violencia. La empresa terminó reconociendo que no tenía los suficientes moderadores capaces de hablar birmano como para detectar lo que estaba pasando.
El problema se repite en muchos otros lugares del mundo cuando entra en juego la desinformación. Durante la entrevista la filtradora expuso que en muchos países, especialmente donde no existen equipos de periodistas especializados en hacer verificación de contenidos, la “desinformación en Facebook está directamente relacionada con muertes”. “Imagina qué ocurre en un pueblo de África en el que se comparte la foto de una masacre, se dice que ha sido en el pueblo de al lado y que es necesario armarse”.
Vigilar el mundo
Las declaraciones de Haugen coinciden con las de otros excompañeros que han decidido contar lo que fue su día a día en Facebook. Recuerdan especialmente a las de Sophie Zhang, científica de datos que formó parte del equipo encargado de eliminar las redes de bots y otros tipos de actividad maliciosa de la red social. Según su testimonio, esta unidad se veía totalmente sobrepasada por la envergadura y la trascendencia de su trabajo: “He tomado decisiones que afectaban a presidentes nacionales sin ninguna supervisión”, alertó. En los documentos que ella filtró destacaba la actuación de su equipo en España, que tardó semanas en bloquear unas 700.000 cuentas falsas que contaminaron la conversación política durante la pandemia.
Las revelaciones de Haugen llegarán aún más lejos. Además de al Wall Street Journal, ella también mandó los documentos a los que tuvo acceso a miembros del Congreso de EEUU, que tiene abierta una comisión de investigación sobre las grandes plataformas a raíz del caso de Cambridge Analytica. La ingeniera comparecerá ante los congresistas esta semana.
Facebook ha enviado un comunicado a los medios en relación a las publicaciones del Journal y la entrevista de Haugen, en el que niega la inacción que denuncia su exempleada. “Cada día nuestros equipos deben hacer un equilibrio entre proteger el derecho de miles de millones de personas a expresarse abiertamente con la necesidad de mantener la plataforma como un espacio seguro y positivo. Seguimos haciendo mejoras significativas para frenar la distribución de desinformación y contenido dañino. Sugerir que promovemos el contenido malo sin hacer nada no es verdad”