Cómo la extrema derecha ha incendiado con bulos xenófobos las protestas por el apuñalamiento que mató a tres niñas en Inglaterra

Ben Quinn / Dan Milmo

1 de agosto de 2024 18:42 h

0

Los bulos y las especulaciones sobre la identidad del sospechoso del apuñalamiento múltiple de Southport, en el que murieron tres niñas, se han viralizado en las redes sociales. La ministra del Interior del Reino Unido, Yvette Cooper, ha instado a la población a evitar especulaciones “que no ayudan ” y ha afirmado que las redes sociales “deben asumir cierta responsabilidad” por los contenidos falsos relacionados con el ataque.

 A continuación, respondemos a algunas preguntas sobre la rapidez con la que se han propagando en Internet los bulos sobre el apuñalamiento múltiple de Merseyside y que han provocado disturbios por las concentraciones convocadas por la extrema derecha y en las que 39 policías han resultado heridos.

Se trata de la segunda noche de disturbios, después de los desórdenes violentos registrados el pasado martes en Southport al término de una vigilia por las víctimas del acuchillamiento en la localidad, que resultó con 39 policías heridos

¿Cómo se difundieron los bulos?

Poco después del asesinato triple, varias cuentas empezaron a difundir especulaciones incendiarias en redes sociales. La plataforma X ha desempeñado un papel clave en la evolución de los acontecimientos, que han terminado con disturbios en las calles.

Una cuenta llamada Europe Invasion, conocida por publicar contenidos antinmigración e islamófobos, publicó en X (antes Twitter) a las 13.49 horas, poco después de conocerse la noticia del ataque, que el sospechoso era “presuntamente un inmigrante musulmán”, una afirmación que es falsa. Desde su publicación, el post ha tenido 6,7 millones de visualizaciones. 

Joe Ondrak, analista de Logically, una empresa británica dedicada al seguimiento de la desinformación, señala que la afirmación de que el autor del ataque era un inmigrante musulmán se amplificó en redes sociales. “Esa frase en concreto se difundió por todos los canales y a través de personas influyentes de extrema derecha”, añade. 

Marc Owen Jones, profesor asociado de la Universidad Hamad Bin Khalifa de Qatar, explica que hubo al menos 27 millones de visualizaciones de mensajes en X que afirmaban o especulaban que el presunto atacante era musulmán, migrante, refugiado o extranjero. En un hilo sobre X, el profesor afirmó que hay un “claro” intento por parte de “influencers y estafadores de derechas” de impulsar una agenda xenófoba y en contra de la inmigración. 

De hecho, personalidades de extrema derecha reconocidas han contribuido en la difusión de estos bulos. En un mensaje publicado en X, Tommy Robinson, un activista británico de extrema derecha cuyo verdadero nombre es Stephen Yaxley-Lennon, llegó a afirmar que la ira de los alborotadores de Southport que salieron a la calle tras el ataque está “más que justificada” mientras que Andrew Tate, un influencer misógino —acusado de trata y explotación sexual— afirmó que el atacante era un “inmigrante ilegal” y pidió a sus seguidores que “se despertaran”.

X, red social de la que Elon Musk es propietario, restableció las cuentas previamente bloqueadas de Robinson y Tate tras comprar la plataforma en 2022. The Guardian ha contactado con X para tener su versión de los hechos.

¿De dónde salió el nombre falso del presunto atacante y cómo se difundió en Internet?

La difusión de un nombre falso se convirtió en el catalizador de la desinformación que tuvo un mayor impacto.

No está claro cuál fue la primera fuente del nombre inventado, que parecía haber sido elegido para reflejar tropos islamófobos. Lo que sí se sabe es que fue amplificado por un sitio web de noticias falsas que se hacía llamar Channel 3 News Now. El sitio, que no tiene ningún trabajador visible e identificado y presenta una mezcla de noticias y deportes de Estados Unidos y el Reino Unido, respondió a un correo electrónico de The Guardian sobre la noticia en el que afirma lo siguiente: “Lamentamos profundamente cualquier confusión o inconveniente que esto haya podido causar”.

Su publicación en X y la “cobertura” posterior reforzaron el bulo original, muy compartido durante 48 horas por activistas de extrema derecha, teóricos de la conspiración y autodenominados influencers en plataformas como TikTok. Las búsquedas del nombre falso, que se dispararon el lunes, han ido disminuyendo con el paso de los días.

Según fuentes judiciales de Liverpool –quienes autorizaron se divulgara el nombre del adolescente después de una prohibición inicial por ser menor de edad– el autor de los hechos es Alex Rudakubana, un joven de 17 años nacido cuyos padres son originarios de Ruanda. Nacido en Cardiff, el joven y su familia se trasladaron a la zona de Southport en 2013, al noroeste de Inglaterra.

Actualmente, el joven se encuentra en prisión preventiva en un centro de detención juvenil tras ser acusado de asesinato, violación y robo a mano armada. Por su parte, la policía al cargo de la investigación dijo a la BBC que el incidente no está siendo tratado como un ataque terrorista.

¿Hay bots implicados?

La mayoría de las campañas de influencia artificial utilizan modelos de inteligencia artificial para que los chatbots escriban y envíen tuits, explica Marcus Beard, un antiguo cargo de Downing Street que dirigió la respuesta del Ministerio de Interior a las teorías de la conspiración durante la crisis de la pandemia.

Esta estrategia está demasiado avanzada como para dar señales reveladoras tuit a tuit, añade el experto.

Dicho esto, Beard y otros analistas señalan que sin duda hay bots de baja calidad tuiteando sobre el incidente de Southport, aunque también advierte de que se trata principalmente de engagement farming, es decir, al esfuerzo consciente realizado por individuos o empresas para generar la máxima interacción en sus contenidos online, a menudo utilizando técnicas manipuladoras. Este tipo de bots existen desde 2010.

Ava Lee, del grupo de campaña Global Witness, afirma: “Cuentas que parecen ser bots están utilizando el terrible ataque de Southport para avivar la división en un momento en que la comunidad pide calma”.

¿Hay injerencia extranjera?

No hay un consenso entre los expertos sobre si los medios controlados por Estados como Rusia han participado en la difusión de los bulos. 

Algunos señalan que los clips más antiguos de una cuenta de YouTube gestionada por el Canal 3 son carreras de coches en Rusia hace 12 años con subtítulos en ruso.

Sin embargo, según Beard, las pruebas de una implicación rusa coordinada son poco sólidas: “Las tácticas del Estado ruso tienden a centrarse más en sembrar la discordia y plantar múltiples narrativas para confundir y dividir. En este caso, parece aislado”.

Stephanie Lamy, analista de estrategias de desinformación, señala: “Channel 3 parece un sitio web de tráfico que monetiza el contenido a través de la publicidad. El contenido lo genera probablemente la inteligencia artificial. Los datos se recogen de las redes sociales y los medios tradicionales, sin citar las fuentes. Por tanto, es vulnerable a la recolección de datos ”malos“.

 ¿Qué se puede hacer?

La Ley de Seguridad en Línea 2023 del Reino Unido contiene disposiciones que obligan a las redes sociales a luchar contra contenidos ilegales como amenazas contra personas de una raza, religión, sexo u orientación sexual determinadas y también a proteger a los usuarios de un delito conocido como “comunicaciones falsas”.

También se exigirá a las grandes empresas tecnológicas, como las principales compañías de redes sociales, que apliquen de forma coherente sus condiciones de servicio, incluidas las directrices que prohíben la difusión de información falsa. Sin embargo, la regulación no empezará a aplicarse hasta finales de año.

Según la legislación vigente en Inglaterra y Gales, ya es delito enviar mensajes con amenazas, abusivos u ofensivos en las redes sociales. Sin embargo, la retirada inmediata de contenidos peligrosos y engañosos depende de que las empresas de redes sociales hagan cumplir sus directrices.

Traducción de Emma Reverter