Las claves del debate entre verificadores y el modelo de Elon Musk: “Esto acabará en el Tribunal de Derechos Humanos”
Meta ya ha informado a la Comisión Europea de que se dispone a cambiar su sistema para controlar la desinformación en sus redes sociales. Es el primer paso para poner fin al modelo basado en verificadores independientes que ha venido manteniendo en el último lustro para pasarse al método de Elon Musk en X, que se apoya en la labor de los propios usuarios a la hora de señalar y contextualizar los bulos.
El cambio puede suponer un nuevo conflicto entre la multinacional y Bruselas, ya que el Ejecutivo comunitario tiene abierta una investigación sobre el modelo que usa X ante sus dudas de que se ajuste a la legislación. “Antes de desplegar nuevas políticas o características que puedan tener un impacto crítico en los riesgos sistémicos, las plataformas muy grandes, incluida Meta, tienen que realizar un análisis previo de evaluación de riesgos y enviarlo a la Comisión”, detallan fuentes comunitarias a este periódico.
Hasta ahora, Meta se ha apoyado en la colaboración con agencias de verificación de hechos independientes. Estas organizaciones, como Newtral, Maldita.es o EFE en España, se encargaban de analizar el contenido viral en Facebook, Instagram o WhatsApp para determinar su veracidad y detectar posibles deepfakes o desinformación.
El proceso de verificación incluía la revisión del contenido por parte de verificadores cuando este empezaba a compartirse masivamente. Si se identificaba contenido falso o engañoso, los verificadores añadían etiquetas a las publicaciones para informar al resto de usuarios. Sin embargo, Mark Zuckerberg ha descartado a los verificadores por favorecer la censura. “Incluso si censuran accidentalmente solo el 1% de las publicaciones, eso significa millones de personas, y hemos llegado a un punto en el que son demasiados errores y demasiada censura”, afirma.
Las organizaciones que venían realizando este trabajo han denunciado que esto no es cierto, pero la decisión está tomada y el cambio es inminente.
Usuarios verificadores
El sistema de los verificadores desató las iras de Donald Trump y la extrema derecha estadounidense desde sus inicios, que cargaron contra ellos por señalar sus bulos. Por ello, fue uno de los primeros cambios que implementó Elon Musk cuando tomó el control de Twitter, ahora X.
En su lugar, Musk implementó un sistema contra la desinformación basado en “notas de la comunidad”. Se basa en apéndices que los usuarios pueden añadir a tuits virales, para aportar contexto o desmentidos a las publicaciones que consideran falsas o engañosas. Todos los miembros de X pueden votar si consideran “útiles” las notas añadidas a las publicaciones, pero no todos pueden escribirlas.
Para escribir notas sobre las publicaciones del resto de usuarios es necesario conseguir el rango de “usuario verificador”. Para ello hay que tener una cuenta con más de 7 meses de antigüedad, tener un número de teléfono asociado a ella y no haber cometido infracciones recientes de las normas de comunidad de X. Los que cumplan las condiciones pueden inscribirse en el programa para optar a recibir la aprobación de la plataforma para ser verificadores.
Al principio, los usuarios verificadores solo pueden valorar las notas ya existentes. Tras haber valorado un número suficiente de notas existentes, y que estas acumulen suficientes valoraciones para publicarse, X les permite empezar a enviar sus propias notas originales. Si estas son consideradas útiles por el resto de usuarios, se publicarán junto a los tuits originales.
Dudas sobre el sistema de X
Musk defiende que su método es más respetuoso con la libertad de expresión que el de los verificadores, ya que no se basa en organizaciones con poderes especiales, sino en la sabiduría de la masa, capaz de detectar y neutralizar errores puntuales. Otros expertos opinan lo contrario.
Un estudio realizado por el Centro Contra el Odio Digital publicado en octubre de 2024 reveló que hasta el 74% de las notas de la comunidad sobre mensajes engañosos relacionados con las elecciones estadounidenses en X no eran visibles. Además, las publicaciones engañosas recibieron 13 veces más visitas que las Notas de la Comunidad que las corregían, según esta ONG creada en 2017 para combatir el odio y la desinformación en las plataformas digitales. En total, los bulos analizados que no recibieron notas de la comunidad recibieron 2.200 millones de visitas.
“Este algoritmo, que se suponía que iba a resolver el problema de los verificadores de datos sesgados, básicamente significa que no hay verificación de datos”, denuncia Alex Mahadevan, del Instituto Poynter, centrado en la promoción de prácticas éticas en medios de comunicación. El experto señala que la falta de visibilidad de las notas se debe al requisito de un “consenso ideológico” para que una nota sea pública, lo que significa que personas de diferentes espectros políticos deben estar de acuerdo en su veracidad. Mahadevan señala que este sistema es problemático en un entorno polarizado, ya que es poco probable que se alcance un consenso sobre temas controvertidos.
Este tipo de cuestiones llevaron a la Comisión Europea a abrir una investigación contra X en diciembre de 2023 por el sistema de notas de la comunidad, al que ahora se sumara Meta.
Un problema sin resolver
Los problemas de las notas de la comunidad no implican que el sistema basado en verificadores sea perfecto. Este programa enfrenta tres críticas principales: La primera es su legitimidad, pues decisiones sobre veracidad recaen en periodistas y no en jueces. El segundo es su impacto limitado, ya que los bulos son más virales que los desmentidos. La tercera es que su eficacia es dudosa, dado que durante su existencia han aumentado tanto la desinformación como la polarización en redes sociales.
Borja Adsuara, jurista experto en derecho y estrategia digital, señala que existe opacidad en la selección de verificadores y en los criterios que utilizan para determinar la veracidad de la información. Esta falta de transparencia “genera desconfianza” y alimenta las acusaciones de sesgo ideológico.
En conversación con este medio, Adsuara argumenta que la Ley de Servicios Digitales (DSA, por sus siglas en inglés, en su afán por combatir la desinformación, puede llevar a “una censura indirecta” por parte de los gobiernos. Esto se debe a que la ley obliga a las plataformas a tomar “medidas adecuadas” contra la desinformación, pero no define claramente qué se considera desinformación: “Se obligó a las redes sociales a intervenir con poderes editoriales para suprimir contenidos que no eran ilegales, lo cual es muy peligroso”.
La Ley de Servicios Digitales de la UE obligó a las redes sociales a intervenir con poderes editoriales para suprimir contenidos que no eran ilegales, lo cual es muy peligroso
Esta ambigüedad permite a la Comisión Europea, a través de convenios de buenas prácticas, presionar a las plataformas para que eliminen contenido que no es ilegal, pero que los gobiernos consideran “inadecuado” o “perjudicial”. “A través de esos convenios, se le indica a las redes sociales lo que deben permitir y lo que no”, refleja el jurista, poniendo como ejemplo el discurso del odio, donde comentarios ofensivos que no implican un comportamiento delictivo pueden llegar a ser borrados.
“El derecho a la libertad de expresión incluye el derecho a decir idioteces. El único límite es la ley. Que uno haga chistes homófobos y de mal gusto no es un delito. Podrá ser idiota y los demás, ejerciendo su libertad de expresión, podrán decir que lo es. Retirar contenidos de este tipo implica censura”, detalla Adsuara.
El frente común de X y Meta ante la UE
El jurista apunta a que todo esto hace aflorar un problema de fondo: no hay un consenso sobre cómo combatir la desinformación ni cómo moderar el debate en unas redes sociales cada vez más polarizadas y agresivas. Pero el frente común que forman ahora Mark Zuckerberg y Elon Musk podría hacer que el asunto escalara por encima de plataformas y reguladores europeos.
“Si la Comisión abre un expediente informativo a Meta, y en el que le han abierto a X llegan a la conclusión de que son medidas insuficientes y les imponen una sanción, van a unirse para recurrir la sanción al Tribunal de Justicia de la Unión Europea o incluso el Tribunal Europeo de Derechos Humanos, ya que esto tiene que ver con la libertad de expresión”, adelanta. Una concatenación de hechos que consideraría positivo: “Me encantaría porque así tendríamos una sentencia del Tribunal Europeo de Derechos Humanos sobre un tema tan delicado como la libertad de expresión y sus límites en las redes sociales”.
2