La gran explosión fue en Facebook, pero las bombas provenían de YouTube. Un nuevo estudio de la Universidad de Oxford sobre la desinformación relacionada con el coronavirus que se compartió en redes sociales durante la primera ola de la pandemia ha documentado que la plataforma de vídeo sufrió un salvaje crecimiento en la producción y publicación de contenidos falsos o inexactos sobre la enfermedad. Esos vídeos acumularon millones de visualizaciones. Pero no fue a través de YouTube, sino que cruzaron una autopista de desinformación que desembocaba en otras redes, muy especialmente Facebook.
La investigación de Oxford ha analizado algo más de un millón de vídeos sobre el coronavirus publicados en YouTube hasta el pasado junio, siguiendo el rastro de aquellos que terminaron eliminados por contener desinformación. Trataban desde supuestas curas inefectivas o peligrosas a tramas de organismos internacionales como la OMS o la ONU para aumentar las cifras de contagios, o teorías de la conspiración sobre Bill Gates o el 5G. Las conclusiones del estudio muestran que si bien los algoritmos de YouTube tuvieron éxito al impedir que esos vídeos se viralizaran en su propia red, fue una política de puertas adentro que no sirvió de nada cuando los usuarios compartían esos vídeos en otras plataformas.
“Esa estrategia no funciona si se realiza de manera aislada”, recalcan los seis investigadores firmantes. La muralla contra la desinformación que las grandes plataformas digitales construyeron tras el escándalo de Cambridge Analytica cayó durante la primera ola de la pandemia porque, sorprendentemente, no contemplaba que Internet es una red interconectada. “Aunque YouTube ha aumentado la visibilidad de las fuentes fiables para los usuarios que buscan información sobre la pandemia en su plataforma, nuestros datos muestran que gran parte del tráfico de los vídeos con desinformación venía desde otras, en particular desde Facebook”, detallan.
El estudio ha hallado una relación directa entre el número visualizaciones de los vídeos con desinformación publicados en YouTube y el número de veces que son compartidos en Facebook. Destaca que se puede “predecir” el éxito de un determinado vídeo de este tipo en función del número de veces que es compartido en la red social de Mark Zuckerberg. “Es raro que un vídeo con desinformación sobre la COVID-19 tenga muchas visualizaciones a no ser que haya sido frecuentemente compartido en Facebook”, abundan.
Además, si bien los algoritmos de YouTube penalizaban inmediatamente los contenidos sobre coronavirus que no vienen de fuentes consideradas “fiables” por la multinacional (básicamente medios de comunicación e instituciones oficiales, lo que también penalizó los vídeos de divulgadores científicos con mucho éxito entre los más jóvenes), la plataforma fue mucho más lenta a la hora de eliminar esos vídeos nocivos. Unos 41 días de media, según el estudio.
En ese período de seis semanas que iban desde su publicación hasta que YouTube finalmente los borraba, los vídeos podían ser compartidos en cualquier red social. Pero el impacto cuando se publicaban en Facebook era mucho mayor que en otras como Twitter o Reddit: “Los videos con desinformación compartidos en Facebook generaban alrededor de 11.000 reacciones de media en total (entre likes, comentarios o compartidos), antes de ser eliminados por YouTube. En comparación, los videos publicados en Twitter fueron retuiteados unas 63 veces de media”, señala la Universidad.
YouTube los deja salir y Facebook falla al cerrarles la puerta
Esta ruta de YouTube hacia Facebook es la que han seguido otros grandes contagios de bulos, como fue el documental Plandemic. En él, una serie de fuentes que se identifican como autoridades médicas “reprimidas” aseguran que el coronavirus es una maniobra de las élites para lucrarse con una nueva vacuna. El relato de la “autoridad médica silenciada” es uno de los formatos que consigue un mayor número de republicaciones, según el estudio de Oxford. De hecho, 89 de los vídeos que han detectado eran distintas versiones de Plandemic, republicadas tras ser eliminadas por las plataformas.
Como YouTube, Facebook también adoptó una política basada en aumentar la visibilidad de las publicaciones de fuentes oficiales. Además, también cuenta con un equipo de medios verificadores independientes para etiquetar los bulos antes de que estos se viralicen. Según los datos que recoge la investigación de Oxford, estos factcheckers solo etiquetaron un 1% de los vídeos desinformativos detectados por la Universidad en Facebook.
Desde la International Fact-Checking Network (IFCN) ponen en duda esa cifra. “No tiene en cuenta que los verificadores que colaboran con Facebook reciben una lista con contenidos que la plataforma identifica como potencial desinformación y trabajan en base a ella”, explica a elDiario.es Baybars Orsek, director de la IFCN. Cristina Tardáguila, directora asociada, recuerda que el estudio no tiene en cuenta las plataformas cerradas como WhatsApp, donde el contenido que comparten los usuarios está encriptado y donde es imposible para los investigadores determinar el impacto de la desinformación.
YouTube y Facebook también cuestionan los resultados. “Este informe utiliza datos obsoletos y no tiene en cuenta una serie de cambios que hemos realizado en nuestros sistemas y procesos desde el comienzo de la crisis sanitaria”, ha afirmado una portavoz de la plataforma de vídeo. “Facebook no permite la presencia de desinformación en sus plataformas”, expresan desde la red social, detallando que de abril a junio colocó etiquetas de aviso sobre 98 millones de bulos en todo el mundo, lo que redujo un 95% sus visualizaciones.
“Millones de individuos compartiendo vídeos con desinformación”
Existen varias formas en las que los vídeos de YouTube pueden ser compartidos en Facebook. Una es a través de las páginas y comunidades públicas que cumplen la función de 'foros abiertos de debate' en la red social. El estudio de Oxford señala que los dos tipos de comunidades donde se difundió más extensamente esta desinformación sobre el coronavirus proveniente de YouTube fueron las que tratan temas conspiranoicos (terraplanistas, antivacunas, Q-Anon, etc.), por un lado; y las de motivación política relacionadas con la derecha y simpatizantes de Donald Trump, por otro.
Como otros estudios habían documentado antes, “casi todas” estas comunidades sobre teorías de la conspiración “existían antes de la pandemia de coronavirus” y aunque tienen “pocos seguidores”, “consiguen ser influyentes debido a que postean desinformación muy frecuentemente”. Es su alto nivel de actividad y los contenidos extremos que comparten lo que les pone en el centro del debate. En las comunidades analizadas en el estudio de Oxford se publicaron una media de 119 vídeos con desinformación durante la primera ola.
No obstante, el estudio señala por primera vez el importante papel de los usuarios individuales a la hora de esparcir los vídeos nocivos. “Hemos encontrado que la gran mayoría de republicaciones en Facebook se originaron fuera de las comunidades públicas y venían de lo que probablemente son millones de individuos compartiendo vídeos desinformativos en sus propios perfiles. Por esto, creemos que es incorrecto interpretar la desinformación como un problema causado por determinados tipos de comunidades”.