Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

Cómo un discurso minoritario y extremo puede abrirse paso en las redes sociales: el ejemplo de los antivacunas

Manifestante porta una pancarta contra las vacunas y el confinamiento en una manifestación el pasado 20 de abril para pedir el fin de las restricciones por el coronavirus en Carolina del Norte (EEUU)

Carlos del Castillo

43

Las redes sociales son máquinas complicadas que se pueden manipular de forma sencilla. Cualquiera que haga el suficiente ruido y provoque emociones lo bastante fuertes tendrá muchas oportunidades de hacer llegar su mensaje al resto de usuarios. Los algoritmos de estas plataformas premian a los que van siempre al ataque y consiguen más interacciones (positivas o negativas), colocándoles en el centro del debate.

Este mecanismo permite a una minoria de pocos miles penetrar en la conversación de millones. Un nuevo estudio publicado en la revista Nature avisa de que esto es justo de lo que se están aprovechando los antivacunas para ser cada vez más relevantes en las redes sociales en plena pandemia de coronavirus.

La investigación ha analizado la evolución de las comunidades anti y pro vacunación en Facebook, así como a los usuarios que expresan opiniones neutrales. “Aunque los grupos antivacunas son numéricamente más pequeños (es decir, tienen un tamaño total minoritario) y tienen opiniones ideológicamente marginales, se han vuelto centrales en términos de posicionamiento dentro de la red”, exponen los investigadores. Esto les permite “interrelacionarse mucho más con los grupos de indecisos” que aquellas comunidades que defienden la vacunación.

Las personas que crean, distribuyen o comparten desinformación sobre las vacunas en redes sociales no son una comunidad homogénea. Al contrario, se pueden encontrar antivacunas entre ufólogos, conspiracionistas illuminati o comunidades de la alt right (derecha alternativa o extrema derecha), como ha demostrado eldiario.es buceando en los vídeos que promueven esta desinformación en YouTube. “Los grupos contra la vacunación ofrecen una amplia gama de narrativas potencialmente atractivas que combinan temas como preocupaciones de seguridad, teorías de conspiración y salud y medicina alternativas, y ahora también la causa y la cura del COVID-19”, refleja el estudio.

Las corrientes antivacunas podrían incluso llegar a ser mayoritarias en unos diez años si siguen este ritmo de crecimiento, pronostica el estudio, firmado por diez investigadores de la Universidad de George Washington (EEUU).

Otro de los aspectos relevantes que señalan es que no son las comunidades de antivacunas más grandes (las más señaladas y rebatidas por los críticos) las que han ganado más adeptos, sino aquellas con un tamaño menor que pasan bajo el radar. “Las comunidades de tamaño medio crecieron más. Mientras que los grupos antivacunas más grandes llaman la atención de la población pro-vacunación, estos grupos más pequeños pueden expandirse sin ser detectados”, refleja la investigación, que avisa que este hallazgo “desafía” la concepción teórica de que las personas suelen seguir a las corrientes predominantes.

Por último, apuntan que ya desde antes de esta pandemia los debates mediáticos en torno a los virus supusieron un crecimiento de las personas adscritas a páginas y grupos donde se difunde desinformación antivacunas. Así ocurrió durante la cobertura sobre el aumento de casos de sarampión de 2019, cuando estas comunidades aumentaron sus seguidores un 300%. “Son capaces de atraer a más personas indecisas al ofrecer muchos tipos diferentes de grupos, cada uno con su propio tipo de narrativa negativa con respecto a las vacunas”.

Todas las conspiraciones llevan a los antivacunas

Los autores del estudio sobre los grupos antivacunas en Facebook explican que han investigado esta red social por la posibilidad que ofrece para crear páginas dedicadas a un tema en concreto, algo que no pasa en otras como Twitter. Es en esa heterogeneidad de páginas y grupos de Facebook donde han encontrado múltiples comunidades que comparten bulos sobre vacunas, aunque no sea el tema principal de la comunidad. El rango va desde la crítica general de los consensos científicos –en páginas negacionistas del cambio climático– al intento de destapar conspiraciones masónicas –las vacunas son “tapaderas” para inyectar sustancias que permiten el “control mental”–.

Otra investigación reciente encontró evidencias de que fue a través de este tipo de páginas como se contagió a España la teoría de la conspiración de Judy Mikovits. Se trata de una científica desacreditada que ha participado en un documental antivacunas que culpa a Bill Gates y las “élites globalistas” de la pandemia de coronavirus. Un corte de vídeo de YouTube de ese documental logró más de 8 millones de visualizaciones.

La estrategia tanto de Facebook como de YouTube en estos casos es disminuir la viralidad de los contenidos que no provienen de fuentes contrastadas. Sin embargo, esta táctica tiene una grieta: los contenidos que se comparten en esos grupos y páginas de Facebook, que son entornos acotados, no se ven afectados por la reducción de viralidad. Tampoco son entornos críticos donde esos contenidos sean susceptibles de ser reportados por el resto de usuarios. Los vídeos de YouTube circulan por estos grupos sin apenas restricciones (al igual que por redes cerradas como WhatsApp o Telegram).

Para intentar frenar las conspiraciones y la propaganda de remedios milagrosos sobre la pandemia, YouTube ha abierto la mano en cuanto a los requisitos para eliminar completamente un vídeo. No permite, por ejemplo, que se niegue la existencia del coronavirus o sus efectos. Pero no es difícil encontrar en su plataforma vídeos que hacen exactamente eso.

“Para ser sincero, creo que la cuestión sobre cómo moderar adecuadamente el contenido generado por el usuario es una de las preguntas más importantes de nuestro tiempo. ¿Creo que YouTube debería ser más restrictivo? ¡Sí! ¿Puedo pensar en una forma directa de cómo podrían hacerlo mejor? Realmente no”, afirma a eldiario.es Manoel Horta, investigador de la Escuela Politécnica de Lausana (Suiza) y autor de un estudio sobre cómo los algoritmos de YouTube empujan a los usuarios hacia contenidos cada vez más extremos y radicales.

“Es importante reconocer que moderar el contenido a la escala que YouTube lo hace no es tarea fácil. Existe una tensión entre hacer de YouTube una plataforma donde todos puedan compartir sus videos (que es la magia del contenido generado por el usuario) y al mismo tiempo hacer cumplir que millones de videos de personas de todo el mundo se ajusten a pautas específicas”, continúa.

Además, refleja el investigador, es un debate sesgado por las propias creencias de cada uno. “La pregunta 'qué debería estar en YouTube' es muy complicada porque la respuesta depende de los valores de cada uno. Diferentes sociedades de todo el mundo tienen diferentes puntos de vista sobre los límites de la libertad de expresión”, advierte, recordando que en Europa, por ejemplo, se persigue mucho más el discurso de odio que en EEUU.

El problema no tiene fácil solución y, además, los científicos, como demuestra el estudio de la Universidad George Washington, todavía están desenredando la madeja. “Toda la situación con las teorías de conspiración es aterradora. Las teorías de conspiración de la era de Internet como QAnon, Pizzagate y, más recientemente, las relacionadas con la COVID-19, están impactando a la sociedad de una manera sin precedentes”, concluye Horta.

Etiquetas
stats