La regulación de las redes sociales: ¿quién se encarga?
En el contexto europeo, el debate acerca de los modos y modelos de regulación de las plataformas online y las redes sociales se encuentra en estos momentos en un punto de especial intensidad y complejidad.
Recientemente hemos visto cómo un tribunal belga ha ordenado a Facebook no continuar rastreando y almacenando datos (a través de las llamadas “cookies”) acerca del comportamiento de sus usuarios cuando visitan páginas web ajenas a la red social, advirtiendo de la imposición de una multa de 250.000 euros al día en caso de hacerlo. La decisión del tribunal se basa en el hecho de que Facebook no habría advertido a sus usuarios de tales prácticas, las cuales, por consiguiente, se consideran una violación del régimen vigente en materia de protección de datos (el cual por otra parte proviene de las normas establecidas a nivel de la Unión Europea).
En Francia se está a la espera de la decisión judicial en el caso de un usuario que demandó también a Facebook por desactivar y dar de baja su perfil en la red sin aviso previo y justificación. El usuario afectado, un profesional de la enseñanza, vinculó tal decisión al hecho de haber colgado en su perfil una imagen del cuadro “El origen del mundo”, de Gustave Courbet. Una pintura conocida e importante en la historia del arte universal, la cual aparentemente habría transgredido las normas internas de la red social en materia de desnudez femenina al presentar en primer plano los órganos sexuales de una mujer.
En Austria, el Tribunal Supremo ha decidido enviar al Tribunal Europeo de Justicia en Luxemburgo una cuestión prejudicial a propósito de la pasividad de Facebook a la hora de detectar y eliminar una serie de comentarios que atacaban frontalmente y de forma descarnada a la líder del Partido Verde, pidiendo, entre otras cosas, que fuese enviada a una cámara de gas. Concretamente, pregunta el alto tribunal austríaco si el ordenamiento europeo permitiría imponer a Facebook un deber de eliminar ese tipo de comentarios, especialmente cuando son radicalmente contrarios al principio de dignidad humana y a las normas en esta materia aplicables en el país correspondiente. La red social alega no solamente que en este caso sus normas de comunidad (“community rules”) no habrían sido violadas, sino que rechaza también, en términos generales, la imposición de una obligación general de control y monitoreo de este tipo de expresiones en su entorno virtual.
De hecho, la cuestión de las normas de contenidos de este tipo de plataformas ya suscitó debate y preocupación hace unos meses cuando el diario británico The Guardian publicó en exclusiva, concretamente en mayo las reglas o el “manual” que sus moderadores de contenidos debían seguir con relación a contenidos sexuales, relacionados con el terrorismo o violentos. La vaguedad, generalidad y práctica arbitrariedad de muchas de las normas y ejemplos allí incluidos generaron no poca perplejidad entre los expertos y activistas, por cuanto reflejaban el modo abiertamente discrecional con el que una de las plataformas actualmente más importantes para la difusión de opiniones, ideas y opiniones podía llegar, en su caso, a censurar o impedir el acceso a determinados contenidos colgados por sus usuarios.
Asimismo, en el marco de la reforma de la normativa audiovisual aplicable al conjunto de la Unión Europea (la conocida como Directiva de Servicios de Medios Audiovisuales), los textos actualmente en discusión apuntan a la novedosa introducción de algunas obligaciones aplicables a las plataformas de compartición de contenidos audiovisuales (del tipo de YouTube), especialmente con respecto a la adopción de normas internas y mecanismos de auto-regulación que permitan gestionar correctamente los contenidos que consistan en discurso del odio o sea perjudiciales para los menores.
También a nivel de la Unión Europea, en 2016 la Comisión Europea firmó un acuerdo con Facebook, Twitter, YouTube y Microsoft, en virtud del cual las compañías en cuestión asumían la responsabilidad de implementar una serie de mecanismos y procedimientos que deberían permitir eliminar expresiones ilegales de odio de forma rápida y eficaz. Más recientemente, Facebook, Twitter y Google han llegado a otro acuerdo con la Comisión Europea para mejorar la protección a los usuarios europeos de estas redes y plataformas, especialmente desde el punto de vista de la normativa y la jurisdicción aplicable, así como de la necesidad de que, en casos de eliminación de contenidos o desactivación de cuentas, el usuario sea correctamente informado y pueda a su vez utilizar mecanismos de tutela de sus derechos como consumidor. Este último acuerdo pondría fin a la hasta ahora problemática alusión que estas compañías hacían en sus condiciones contractuales a la competencia exclusiva de los tribunales estadounidenses (competentes con relación a la matriz corporativa), así como a la imposición de ciertas cláusulas y limitaciones que serían consideradas como abusivas desde el punto de vista del derecho europeo.
Todo ello tiene lugar en un contexto más global de creciente recelo hacia el papel de dichos intermediarios en la esfera pública y en el propio funcionamiento de la democracia. Basta recordar las acusaciones de interferencia y distorsión en el desarrollo de las últimas elecciones presidenciales en los Estados Unidos, lo cual dio lugar a la comparecencia y petición de explicaciones a estos operadores en el propio Congreso.
Es evidente que los intermediarios a los que venimos haciendo referencia se han convertido en actores principales en el proceso de difusión y distribución de todo tipo de contenidos. También juegan un papel muy destacado a la hora de garantizar la “visibilidad” de los contenidos producidos por parte de medios tradicionales, tales como la prensa escrita o incluso la radio y la televisión, en la medida en que es cada vez más frecuente el hecho de que dichos contenidos son consumidos a partir de una recomendación o de su aparición en el marco de redes sociales y todo tipo de plataformas.
Sin embargo, es evidente también que el núcleo del negocio o el interés comercial de dichas corporaciones no radica en el facilitamiento del ejercicio de la libertad de expresión o la promoción del intercambio plural y democrático de ideas. Se trata de actores que “venden” sus usuarios a anunciantes y prestadores de otros servicios online sobre la base de ofrecer contenidos que resulten atractivos e interesantes para dichos usuarios. Como ha sido acreditado por muchos estudiosos de la comunicación, el interés individual de un determinado contenido no viene determinado por su veracidad o su contribución a un debate plural e informado, sino por su capacidad para activar resortes mucho más primarios, entre ellos la reafirmación de nuestros propios puntos de vista, aunque no se basen en hechos contrastados o fundamentos sólidos.
Por otra parte, las plataformas defienden su derecho a tener su propio modelo de negocio, rehusando pues un papel de conformadoras de la opinión pública o garantes del libre intercambio de ideas y pensamientos. Defienden también su derecho a establecer sus propias condiciones de uso y normas de comportamiento, por lo que, en principio, los usuarios deberían asumir que los límites y parámetros que rigen en el entorno virtual correspondiente no son los propios de un espacio público abierto. Dicho lo anterior, también es cierto que la presión política y ciudadana a la que éstas han sido sometidas ha llevado a adoptar y aceptar algunas medidas como la adopción de los códigos de conducta o acuerdos antes mencionados (especialmente en el marco de la Unión Europea) o incluso, en el caso de Facebook, a anunciar la contratación de un mayor número de moderadores de contenidos para evitar, especialmente, la difusión de noticias falsas u otros contenidos indeseables. Sin embargo, pesa sobre estas decisiones la sospecha de tratarse de meras operaciones cosméticas de relaciones públicas, con el fin último de evitar el peor escenario para dichos actores: ser sujetos a regulación por parte de las autoridades públicas de un modo similar a los medios convencionales.
Es evidente que estamos en un terreno que presenta algunas paradojas difíciles de resolver. Si, por una parte, como algunos sostienen, es necesario introducir una mayor responsabilidad editorial en el comportamiento de los gestores de las redes, ello supondrá también aceptar la privatización de la regulación del ejercicio de la libertad de expresión, con todo lo que ello supone de pérdida de derechos, garantías y salvaguardas. Hay que tener particularmente en cuenta que, situadas en una posición de responsabilidad, las redes sociales tenderán a evitar situaciones delicadas y, por defecto, eliminarán aquellos contenidos que puedan ser cuanto menos sospechosos de ser problemáticos. Por otra parte, si se entiende que estamos ante plataformas que funcionan sobre la base de criterios estrictamente comerciales y con relación a las cuales hay que aceptar la aplicación de algoritmos y otras fórmulas que darán visibilidad a aquellos contenidos que sean más atractivos para los consumidores y por ello más rentables, habrá también que asumir los riesgos o “externalidades” que ello supone para la salud de nuestras democracias. Riesgos que, con razón, muchos consideran verdaderamente serios e insoslayables.
Desde un punto de vista regulatorio pues, la imposición de deberes y responsabilidades generales en materia de monitoreo y control de contenidos a las redes sociales y otras plataformas resulta claramente contraproducente, en la medida en que abre la peligrosa puerta de la censura privada y el control corporativo de la esfera pública. Por otra parte, sin embargo, es claro que los poderes públicos deben plantearse determinados mecanismos de intervención que garanticen la vigencia mínima de una serie de principios y valores en un espacio tan importante como el de las redes sociales y plataformas similares.
Existe en derecho internacional una creciente tendencia a reconocer y enfatizar la responsabilidad, también, de los actores privados y las corporaciones en la adecuada protección de los derechos humanos. Por ello, corresponde a las instancias públicas garantizar, en primer lugar, que las normas internas o de comunidad de las redes sociales sean, en lo que se refiere a contenidos, claras y precisas y no contengan restricciones o límites no razonables, arbitrarios o que puedan dar lugar a limitaciones desmesuradas de la libertad de expresión de los usuarios. En segundo lugar, también es necesario garantizar, a través de mecanismos regulatorios adecuados, que los procedimientos internos de remoción de contenidos, desactivación de cuentas u otras acciones similares sean transparentes, proporcionados, y permitan la intervención de los afectados, con la posibilidad asimismo de acudir a instancias imparciales de apelación.
Es evidente pues que los Estados no pueden delegar en las redes sociales y plataformas funciones relevantes en materia de garantía de una comunicación pública abierta, plural y sin restricciones injustificadas. Pero también lo es que será necesario introducir los mecanismos adecuados a fin de evitar que el papel innegable que corresponde a aquéllas en la gestión de los contenidos que facilitan no dé lugar a distorsiones o disfunciones incompatibles con el funcionamiento de una democracia plural.