Las nuevas reglas de Europa para las plataformas online

Experto internacional en materia de libertad de expresión y regulación de medios —
22 de diciembre de 2020 21:57 h

0

En medio de una expectación impropia de una revelación de estas características, el pasado martes 15 de diciembre los comisarios Margrethe Vestager y Thierry Breton presentaron dos propuestas legislativas de envergadura, orientadas a definir con más precisión, y de forma más extensa que hasta el momento, las obligaciones y los límites a las actividades de los intermediarios de Internet y especialmente las plataformas de alojamiento y compartición de contenidos como Facebook, Twitter, YouTube o TikTok.

Las propuestas son la Digital Services Act (DSA) y la Digital Markets Act (DMA), en sus, por ahora, únicas versiones en inglés. Mientras la segunda se orienta a armonizar normas existentes en diversos Estados, con el fin de impedir más eficazmente la formación de cuellos de botella y la imposición de barreras de entrada al mercado único digital, la primera establece los principios fundamentales de la regulación del modo en el que los intermediarios antes referidos inciden en la distribución de contenidos y la prestación de servicios en los diversos Estados de la Unión. En este artículo me centraré en esta última.

La DSA no aparece para cubrir ningún vacío normativo preexistente. A pesar de que, en los últimos tiempos, desde el discurso político y especialmente por parte de los más altos responsables de la Unión Europea, parece haber arraigado la idea de que las grandes plataformas operan en un espacio de completa impunidad e irresponsabilidad, lo cierto es que desde principios del actual milenio el continente había venido contando con una norma marco de referencia aplicable a este sector: la conocida como Directiva sobre comercio electrónico. Esta norma ha gozado de buena salud y ha proporcionado un marco de seguridad jurídica razonable, tomado asimismo como fuente de inspiración en otras regiones del mundo. Un régimen relativamente parecido se estableció en Estados Unidos incluso antes que la Directiva europea, a través de lo que se conoce comúnmente como la Sección 230 de la Communications Decency Act (también considerada como “las 26 palabras que crearon Internet”). 

Ambas normas parten de un principio fundamental, que está también recogido por los estándares aplicables del Relator de Naciones Unidas en materia de libertad de expresión: la exención de responsabilidad de las plataformas por el contenido de terceros que distribuyen (con específicas excepciones en el caso europeo para aquellos supuestos en los que se pueda demostrar la existencia de un conocimiento real de la ilegalidad del contenido en cuestión) y la prohibición de la imposición de un deber general de inspección o verificación de todos los contenidos que se suministran. La razón de ser fundamental de este principio es evitar toda delegación o atribución a corporaciones privadas como las plataformas de la responsabilidad de determinar la legalidad o ilegalidad de un contenido, así como de cualquier presión o incentivo que pueda llevar a éstas a retirar contenidos a fin de evitar ulteriores responsabilidades. El impacto sobre la libertad de expresión derivado de un régimen que no respetase estos principios es evidente.

Pues bien, la DSA no altera estos principios preexistentes, que se mantienen de forma prácticamente idéntica. Es más, la propuesta apunta al establecimiento adicional de un principio del “buen samaritano”. Este principio no se encontraba reconocido en cuanto tal en la legislación europea (aunque sí en la Sección 230) y esencialmente protege a las plataformas de responsabilidad por el mero hecho de establecer y aplicar políticas de moderación de contenidos. Dicho de otro modo, el hecho de que una plataforma tenga tales políticas internas y por ello actúe de forma activa en la revisión o incluso remoción de contenidos objetables (incluidos los supuestamente ilegales) no puede utilizarse, en cuanto tal, para establecer que la plataforma en cuestión tenía conocimiento real y por ello atribuírsele responsabilidad acerca de un contenido ilegal (suministrado por un tercero, obviamente). Se trata así de evitar el llamado “dilema del moderador”: ¿para qué iba una plataforma a asumir la carga de evitar cualquier contenido indeseable, si ese ejercicio la lleva precisamente a afrontar responsabilidades legales? Está claro pues que esta norma se inscribe en la tendencia o la percepción mayoritaria de que las plataformas “tienen que hacer más”. Y ese “hacer más” se concreta no solo en la necesidad de colaborar con las autoridades en la detección y remoción de contenidos ilegales, sino también en la incentivación de la adopción de principios y estándares internos más allá de la legalidad vigente y orientados a gestionar o incluso eliminar contenidos de carácter meramente “nocivo”, tales como conductas antisociales, campañas de desinformación, u otras prácticas de tenor parecido (especialmente a través de cuentas falsas o automatizadas). Sin que lo anterior suponga, en cuanto tal, la generación de responsabilidades a cargo de las plataformas como consecuencia de posibles errores u omisiones.  

A partir de aquí son muchos los elementos interesantes que se contienen en la norma. Obviamente, éstos no pueden ser presentados con detalle en un artículo de estas características, por lo que limitaré a presentar los rasgos y tendencias más destacados.

En primer lugar, se trata de una norma que establece nuevas obligaciones a cargo de las plataformas. Para ser precisos, la norma consagra la obligación de llevar a cabo una serie de actividades o adoptar determinadas medidas para la protección de los usuarios. Dichas acciones o medidas, en puridad, ya estaban siendo desplegadas y llevadas a cabo, al menos, por las grandes plataformas que todos conocemos. Es evidente, en todo caso, el cambio que supone el hecho de que, a partir de ahora, no se trata ya de decisiones voluntarias, sino de deberes descritos por la norma con un cierto grado de detalle. Entre éstos, seguramente los más destacados serían los relativos a la transparencia (en cuanto a los contenidos retirados, las normas de moderación utilizadas, el uso de algoritmos, etc.), la necesidad de explicitar de forma fundamentada las decisiones de remoción de contenidos y de contar con mecanismos internos y externos e independientes de apelación de dichas decisiones, así como el establecimiento de normas claras, proporcionales y transparentes en materia de política interna de moderación de contenidos.  

En segundo lugar, hay que destacar que se establece una cierta graduación en cuanto a la imposición de las obligaciones de referencia. A mayor tamaño de la plataforma, mayores serán las medidas que ésta deberá adoptar. La categoría más alta y exigente se corresponde a aquéllas que cuenten con un número de usuarios superior a 45 millones, lo cual incluye pues a la práctica totalidad de las plataformas más usadas y conocidas. El ámbito de las obligaciones hay que asociarlo obviamente al de las sanciones por los casos de incumplimiento, las cuales pueden llegar hasta el 6% del volumen global de negocio (no solo el de la Unión Europea).

Un ámbito que merece reflexión especial es el grado de afectación a la libertad de expresión que pudiera derivarse de la adopción de la propuesta con su contenido actual. En este sentido, el texto incluye, en primer lugar, la posibilidad de que tanto las autoridades (administrativas o judiciales) como terceros puedan informar a las plataformas acerca de la existencia de un contenido ilegal, instando pues a la adopción de las medidas pertinentes. La habilitación legal de este tipo de mecanismos (la cual no es en sí novedosa) no se acompaña, en la propuesta, de mecanismos adecuados que puedan permitir recurrir o cuestionar de forma efectiva el contenido de las órdenes o comunicaciones mencionadas, de tal modo que las plataformas se ven impelidas a eliminar de forma inmediata el contenido en cuestión con el fin de evitar la imposición de responsabilidad alguna, incluso en aquellos casos en los que la pretensión les pueda parecer errónea, infundada o incluso malintencionada. En segundo lugar, se ha señalado también que la propuesta se basa en buena medida en fomentar la adopción, por parte de las plataformas, de una serie de medidas orientadas a manejar debidamente y mitigar las consecuencias de la difusión de contenidos los cuales, no siendo necesariamente ilegales, se consideran nocivos. A tal efecto, las plataformas de la categoría superior antes mencionada están no solamente obligadas a “evaluar” cuáles son los riesgos que la misma genera en ámbitos tan amplios como la salud pública, el discurso cívico, los procesos electorales o la seguridad pública, sino también a adoptar todas aquellas medidas que permitan “mitigar” adecuadamente dichos riesgos. Con el añadido de que corresponderá a una autoridad administrativa a designar por parte de los Estados miembros determinar si dichas medidas son suficientes o deben ser complementadas o mejoradas. Es evidente el impacto potencial en la libertad de expresión que puede llegar a presentar la implementación de tan vagas e imprecisas previsiones. Éstas contienen un buen número de incentivos para que las plataformas limiten cualquier forma de discurso el cual, aun siendo legal, pueda tener atisbos de nocividad (pensemos en determinados discursos minoritarios o marginales), así como la habilitación para que desde una autoridad pública se pueda (aunque sea de forma indirecta) promover la restricción de dichas formas de expresión.

Se trata, como vemos de una propuesta con luces y sombras, la cual en todo caso tiene todavía un largo tramo legislativo por recorrer. Hay que esperar que, a través de la implicación activa de los diversos sectores implicados, incluida especialmente la sociedad civil, Europa pueda contar con un nuevo marco de regulación de los servicios digitales claro, proporcionado y particularmente respetuoso con la libertad de expresión.