Facebook está creando un órgano global al que encargará la misión de ser la última instancia ante la que elevar quejas sobre libertad de expresión de los más de 2.000 millones de usuarios de su plataforma. La red social, que lleva más de un año perfilando el proyecto, ha publicado recientemente su “acta constituyente” con los detalles sobre cuál será su composición, el proceso para llegar a ser miembro y qué estructura interna tendrá. Facebook lo llama Oversight Board, que puede traducirse como Junta de Supervisión o Consejo de Vigilancia.
Mark Zuckerberg, fundador de Facebook, ha asegurado en una carta que el órgano será “independiente” de la cúpula de la compañía y que sus decisiones serán “vinculantes”: la red social tendrá que acatar lo que esa Junta de Supervisión decida. “El Oversight Board solo auditará un pequeño número de casos al principio, pero con el tiempo esperamos que amplíe su alcance y que también incluya más compañías en toda la industria”, confía el magnate digital.
Según recoge la citada “acta constituyente”, Facebook comenzará a ofrecer a un número reducido de personas la posibilidad de co-presidir el organismo. Si aceptan, empezarán a trabajar “junto” a la red social para “seleccionar, entrevistar y hacer ofertas” al resto de miembros hasta que sumen 40. El objetivo es nombrar a los primeros antes de que termine 2019. Todos ellos deberán tener “ciertos principios”, pide la compañía, como “un compromiso con la Junta como institución”; experiencia “en deliberar reflexiva y colegialmente” o conocimientos sobre libertad de expresión, privacidad y tecnología.
Facebook también especifica que los miembros del órgano deben saber “explicar decisiones basadas en un conjunto de políticas”, que no de leyes. Porque ese Consejo de Vigilancia no se regirá por ninguna. “¿Por cuál iba a hacerlo? Su ámbito es global, para decidir en virtud de leyes nacionales tendrían que formar un board en cada país”, recuerda en conversación con eldiario.es Joan Barata, jurista experto en libertad de expresión y profesor del centro Internet y Sociedad, de la Universidad de Standford.
“Es muy importante recordar que estos expertos van a formar una especie de tribunal supremo global pero no actúan en el marco de ninguna ley, solo de las normas internas de Facebook”, recalca.
Son las normas de Facebook, es la ley
¿Qué pretende Facebook con el nuevo organismo? Barata, miembro de la Plataforma en Defensa de la Libertad de Información, explica que, al menos al principio, el ejemplo perfecto de cuándo entraría en acción son esas censuras aparentemente inexplicables que lleva a cabo la red social, como cuando bloquea obras de arte porque incluyen el pecho de una mujer, o una imagen de niños judíos en un campo de concentración nazi al entender que es pornografía infantil.
Que la Junta de Vigilancia vaya a usar las normas internas de Facebook como tabla de la ley no es la única duda que deja entre los expertos la iniciativa de Zuckerberg. La capacidad de sus miembros para evaluar cuestiones que afecten a usuarios de comunidades minoritarias cuyas singularidades escapen a sus conocimientos genera desconfianza. También el hecho de que sus decisiones no crearán jurisprudencia (que el organismo decida que, siguiendo con el mismo ejemplo, el pecho de una mujer en un cuadro deba tolerarse no implicará que la red social empiece a permitir todos los cuadros que los representen).
“El problema que tiene Facebook y gran parte de las redes sociales es que hay parte de la sociedad civil que denuncia que imponen censura (como en el caso de los desnudos artísticos) y otra parte que dice que Facebook interviene demasiado poco”, expone el jurista. “El Board es un mecanismo que le permite justificar mejor y con más transparencia las decisiones que toma en materia de contenidos, pero creo que es una operación de imagen y una forma de separarse de su responsabilidad en la moderación de contenidos”, prosigue: “Quien espere que esto vaya a solucionar algún problema se equivoca”.
Como destapó eldiario.es, las condiciones en las que trabajan los moderadores son muy complicadas. Sin ninguna preparación específica, tienen que decidir en 30 segundos si un comentario es discurso de odio, arremete contra algún colectivo vulnerable o viola los derechos de un niño. 30 segundos antes de esa decisión puede que tuvieran que bloquear la imagen de una persona decapitada y 30 segundos después, dirimir si una fotografía con autolesiones incita al suicidio o entra dentro de la libertad de expresión. “Vemos cosas que no te dejarían dormir”, afirmó uno de estos trabajadores en conversación con este medio.
“Puede que esto mejore el statu quo. Lo que no hará es solucionar el verdadero problema subyacente: la moderación del contenido”, ha denunciado la Electronic Frontier Foundation (EFF), principal referencia entre las organizaciones que fiscalizan el respeto de los derechos fundamentales por parte de la industria digital y sus gigantes. “La moderación del contenido es extremadamente difícil de corregir, y en la escala a la que opera Facebook, puede ser imposible que un conjunto de reglas gobierne adecuadamente a las muchas comunidades que confían en la plataforma. Como con cualquier sistema de censura, los errores son inevitables”, continúa la organización.
El Estado paralelo del capitalismo digital
Lo avisaba Edward Snowden en una entrevista con Marta Peirano en eldiario.es: “Los gobiernos están empezando a delegar su autoridad en las empresas tecnológicas, a convertirlas en pequeños sheriffs para que funcionen como agentes gubernamentales e impongan nuevas reglas, como qué se puede y no se puede decir”.
“Lo que va a ocurrir, puede que no en dos años, pero en los próximos diez, cuando se den cuenta de que han ido demasiado lejos -pronosticaba el autor de las revelaciones que sacaron a la luz el ciberespionaje de la NSA- es que no van a poder recuperar esa autoridad. Porque estas compañías habrán cambiado la manera en la que opera el sistema. Estas compañías opacas que no responden ante la ciudadanía habrán cambiado la manera en que la gente lee, come, conduce, trabaja, piensa y vota”.
“Crear instituciones que protejan la libertad de expresión y las comunidades en línea es importante para el futuro de Internet”, escribía Mark Zuckerberg en la carta con la que ha presentado su Oversight Board, casi como una respuesta a la advertencia de Snowden.
Este verano Facebook presentó Libra, una criptomoneda que pretendía ofrecer que los usuarios de sus redes sociales (como WhatsApp o Instagram) compraran bienes y servicios, cobrándoles una comisión tanto a ellos como al receptor del pago. Para lanzarla, Zuckerberg consiguió que 27 organizaciones entre bancos, compañías de pagos y otras empresas respaldaran el proyecto con 1.000 millones de dólares. La avalancha de críticas por parte de los bancos centrales, como el de la UE, le ha obligado a congelar el proceso por el momento.