Facebook comenzará a enviar notificaciones a los usuarios que hayan estado expuestos a bulos sobre el coronavirus de carácter sanitario en su plataforma cuando estos queden desmentidos oficialmente por la Organización Mundial de la Salud (OMS) u otras organizaciones como ministerios de sanidad. La red social alertará a las personas que hayan interactuado con estos contenidos nocivos, ya sea comentándolos, compartiéndolos o reaccionando ante ellos con opciones como el 'me gusta'. La medida se aplicará a todos los usuarios a nivel mundial y no afecta a la desinformación que no esté relacionada con la salud de las personas.
“Queremos conectar con la verdad de fuentes autorizadas a las personas que pueden haber interactuado con información errónea y dañina sobre el virus”, ha explicado en un comunicado Guy Rosen, uno de los vicepresidentes de Facebook. “La gente comenzará a ver estos mensajes en las próximas semanas”, detalla.
A diferencia de lo que ocurre con el resto de bulos, como los de carácter político, Facebook borra de su sistema las publicaciones con bulos sobre la salud, como remedios falsos para el coronavirus. Cuando la desinformación es de otro tipo y es desmentida por alguno de los verificadores independientes con los que trabaja, el protocolo de la red social consiste en ensombrecer el contenido y añadir un aviso de que este ha sido marcado como erróneo por estos medios colaboradores. En estos casos la plataforma modifica sus algoritmos para impedir que el contenido se viralice, pero no lo elimina.
El anuncio de Facebook se produce tras conocer los resultados de una investigación independiente de las universidades de George Washington y la Universidad Estatal de Ohio (EEUU) sobre la efectividad de estos desmentidos: las correcciones de verificadores independientes reducen casi a la mitad (49,4%) la confianza de los usuarios en los contenidos falsos. En algunos tipos de bulos la efectividad de la verificación llega al 61%.
“Si bien investigaciones pasadas han dejado claro que la verificación de datos puede reducir el impacto de la desinformación en entornos abstractos, esta es la primera vez que una investigación ha aclarado que la verificación de datos también puede funcionar en entornos como Facebook”, explica Thomas J. Wood, profesor de la Universidad Estatal de Ohio.
El estudio de las universidades norteamericanas fue encargado por la ONG Avaaz. “Facebook está en el epicentro de la crisis de desinformación. Pero la compañía da hoy un giro crítico al limpiar este ecosistema informativo tóxico, convirtiéndose en la primera plataforma de redes sociales en alertar a todos sus usuarios de que han estado expuestos a desinformación sobre el coronavirus y dirigirlos hacia datos que salvan vidas”, confía Fadi Quran, uno de los responsable de Avaaz, que en las últimas fechas ha centrado su trabajo en investigar la desinformación en las redes sociales.
Un 95% de los usuarios no pinchan en los contenidos marcados como desinformación
Desde 2019 Facebook ha pactado con verificadores independientes de todo el mundo para que periodistas especializados en detección de bulos encuentren y etiqueten la desinformación que corre por la plataforma. Este miércoles los responsables de la red social han publicado algunos datos sobre cómo reaccionan los usuarios cuando se topan con bulos ya marcados como falsos. Las cifras muestran que la efectividad de esta medida es muy alta.
“Por ejemplo, durante el mes de marzo, mostramos advertencias en aproximadamente 40 millones de publicaciones en Facebook relacionadas con la COVID-19, basadas en alrededor de 4.000 artículos de nuestros socios independientes de verificación. Cuando las personas vieron esas etiquetas de advertencia, el 95% de las veces no accedieron al contenido original”, revela la red social.
No obstante, la efectividad de las medidas de Facebook para reducir la distribución de bulos todavía dista mucho de ser perfecta. Avaaz también publica hoy los resultados de otro análisis sobre la distribución de 100 bulos sobre el coronavirus en Facebook en seis idiomas. Estas publicaciones se compartieron 1,7 millones de veces y tuvieron 117 millones de visualizaciones estimadas en esas seis lenguas, incluido el español, a pesar de haber sido desmentidas por verificadores independientes.
Los investigadores de Avaaz señalan que la red social “puede tardar hasta 22 días en emitir etiquetas que avisen de desinformación sobre el coronavirus, con retrasos significativos incluso cuando los socios de Facebook han informado rápidamente a la plataforma sobre el contenido pernicioso”. Sus resultados muestran que el 41% de las noticias falsas que analizaron permanecieron en la plataforma sin ninguna etiqueta de advertencia. Además, “las etiquetas de advertencia no se aplicaron equitativamente por idioma”, explican, ya que la plataforma actúa mucho más rápido en inglés que cuando el bulo es en cualquier otra de las cinco lenguas.
Sobre este estudio de Avaaz, Facebook señala que la muestra de 100 bulos analizada “no es representativa de la comunidad de Facebook y los hallazgos no reflejan el trabajo que hemos realizado”. No obstante, la red social agradece su implicación en el estudio de cómo se transmite la desinformación en la plataforma y las aportaciones que han llevado a cabo para implementar las alertas a los usuarios que han interactuado con bulos sobre el coronavirus en la plataforma.