YouTube asegura que la nueva ley de la UE puede lastrar su lucha contra los bulos
La Ley de Servicios Digitales de la UE ha entrado en la fase final de las negociaciones. Se trata de un paquete de medidas con las que el bloque comunitario quiere atajar los problemas asociados a las grandes plataformas, como las consecuencias perjudiciales que pueden tener sus algoritmos o la ausencia de reglas comunes y claras para la moderación y retirada de contenidos. Unas medidas que, aunque bienintencionadas, pueden entorpecer la batalla contra la desinformación, según asegura YouTube en un comunicado publicado este miércoles al que ha tenido acceso elDiario.es.
“Según su borrador actual, la Ley de Servicios Digitales podría exigirnos una evaluación sistemática y detallada antes de lanzar cualquier producto o servicio. Y eso es algo que podría ralentizar nuestro trabajo a la hora de facilitar protección a la comunidad de YouTube frente a amenazas urgentes y complejas como la desinformación asociada a la Covid-19”, afirma Neal Mohan, jefe de producto de la web estadounidense.
“Cada vez que surge una nueva amenaza de desinformación, hay que actuar con rapidez”, enfatiza el responsable de la plataforma: “Somos conscientes de que, cuando hablamos de combatir la desinformación, ninguna de las partes de estas negociaciones quiere alargar los tiempos de respuesta; sin embargo, hay un riesgo real de que esto ocurra si se mantiene esta propuesta”.
La nueva ley plantea aumentar la transparencia de la moderación de contenidos, forzando a las plataformas a explicarse ante los usuarios cuando borran sus contenidos, pero también cuando reducen su visibilidad. Esta última es una de las estrategias más socorridas de YouTube para atajar la desinformación sin pisar la libertad de expresión.
Hay un gran número de vídeos que YouTube califica de “potencialmente dañinos” porque van al límite de sus reglas. Sin embargo, no considera que las violen por completo, por lo que no los elimina. La compañía los denomina contenidos límite o “vídeos borderline” y cuando los detecta, su política es evitar su exposición sacándolos de las listas de recomendaciones, cortando su aparición en vídeos relacionados o impidiendo que se notifique su publicación a los suscriptores del canal que lo publique.
Con las nuevas reglas europeas, YouTube debería informar a los autores de esos vídeos límite o “borderline” de cómo se ha penalizado su visibilidad, cuándo y por qué. Datos que evitarían frustraciones a millones de usuarios que participan o se ganan la vida en la plataforma, pero que también podrían dar forma a un manual de instrucciones sobre cómo saltarse sus defensas para aquellos que buscan intoxicar.
El problema de YouTube no está solo en YouTube
Los vídeos claramente nocivos son los que menos problemas le dan a YouTube, ya que los borra por violar sus normas de forma automática. Según sus datos, el 92% de los vídeos eliminados en el último trimestre de 2021 (más de 3,7 millones) fueron identificados por sus algoritmos, no por personas. De ellos, el 34% no recibió ninguna visualización. Otro 40% solo tuvo entre una y diez.
Los vídeos “borderline” son otro cantar. Según un estudio de Oxford, este tipo de contenidos abrieron la gran brecha de desinformación durante la primera ola: los investigadores detectaron que aunque los algoritmos de YouTube evitaron la viralización interna de vídeos con desinformación, no pudieron hacer nada cuando los usuarios los compartían en otras plataformas. Publicados en Facebook, fueron la munición perfecta para extender bulos, falsas curas, negacionismo o teorías de la conspiración de la extrema derecha sobre la pandemia.
“El problema del cruce de redes” fue señalado por Mohan como uno de los puntos en los que YouTube está trabajando para este 2022. “Aunque no recomendemos un vídeo dudoso, éste puede recibir visitas a través de otros sitios web que enlazan con un vídeo de YouTube o lo incrustan”, reconoció en una publicación que resumía sus objetivos para este año. Como solución, la plataforma está planteándose “desactivar el botón de compartir o romper el enlace” de esos contenidos, lo que impediría compartirlos o incrustarlos en otras páginas web. No obstante, su duda es que sea una práctica acorde con la libertad de expresión.
Hay que tener cuidado de limitar la difusión de información errónea potencialmente dañina y, al mismo tiempo, dejar espacio para el debate
“Compartir un enlace es una elección activa que una persona puede hacer, distinta de una acción más pasiva como ver un vídeo recomendado”, argumenta. “El contexto también es importante: los vídeos dudosos incluidos en un estudio de investigación o en una noticia pueden requerir excepciones o un tratamiento diferente. Hay que tener cuidado de limitar la difusión de información errónea potencialmente dañina y, al mismo tiempo, dejar espacio para el debate y la educación sobre temas delicados y controvertidos”, explica Mohan.
Esta política ha provocado que los especialistas en interceptar la desinformación carguen contra YouTube. En una carta hecha pública en febrero, más de 80 organizaciones de verificación de bulos denunciaron que la compañía “no hace un esfuerzo real” para “aplicar políticas que aborden el problema”. “YouTube permite que actores sin escrúpulos utilicen su plataforma como un arma para manipular y explotar a otras personas, y para organizarse y recaudar fondos”, aseveraron.
En su comentario de este miércoles, Mohan asegura que durante 2020 YouTube actualizó diez veces su política de desinformación sobre el coronavirus, lo que cambió las condiciones para borrar vídeos, pero también esconder contenidos límite. A su juicio, la nueva Ley de Servicios Digitales de la UE que se negocia en Bruselas podría entorpecer esa lucha.
0