La portada de mañana
Acceder
Aldama zarandea al PSOE a las puertas de su congreso más descafeinado
Corazonadas en la consulta: “Ves entrar a un paciente y sabes si está bien o mal”
OPINIÓN | Días de ruido y furia, por Enric González

Una auditoría revela que YouTube potencia los vídeos que “deshumanizan” a las personas migrantes

¿Cómo muestran a los migrantes los vídeos de YouTube más potenciados por su algoritmo? Normalmente, en grandes masas (grupos de 16 o más) de personas anónimas (no se muestra su cara) y no blancas, que se encuentran cruzando una frontera terrestre o atravesando el mar en lanchas o barcos, en las que los hombres son mayoría y aparecen enfrentados a los militares o a las fuerzas de seguridad, tratando la migración como un problema. O lo que es lo mismo, “de forma predominantemente negativa” y “altamente deshumanizante”, avisa la primera auditoría externa sobre el comportamiento de la plataforma de vídeo en este área.

El análisis ha sido realizado por Eticas, autora de otras iniciativas de este tipo como la auditoría externa de VioGén, el algoritmo de prevención de la violencia machista que utiliza el Ministerio del Interior, y colaboradora del Ministerio de Trabajo en el desarrollo de la herramienta de transparencia de los algoritmos laborales.

“La narrativa de la migración en los medios de comunicación tradicionales ha sido ampliamente estudiada, pero no así en las redes sociales, a pesar del rápido aumento de sus usuarios. Los estudios sobre las redes sociales confirman la misma tendencia narrativa: la migración como amenaza y la infrarrepresentación de los propios migrantes a la hora de comunicar sus propias historias”, destaca la organización.

La representación de las personas migrantes como gente sin rostro que se enfrenta a las fuerzas de seguridad está relacionada “con el auge de los partidos de extrema derecha”, recuerdan los autores. Una tendencia que se reproduce también en YouTube, ya que “el algoritmo de la plataforma de vídeo premia mensajes políticos xenófobos”, revelan: “los retrata como una amenaza”.

El algoritmo de YouTube premia mensajes políticos xenófobos

La segunda tendencia detectada es la que lleva a mostrar a los migrantes como “víctimas de las circunstancias”. “Usar el marco de víctima en relación con los migrantes refuerza los estereotipos y prejuicios sobre los migrantes, como la idea de que son débiles o dependientes y carecen de autonomía”, explican desde Eticas. La tercera conclusión principal es la ausencia de vídeos con mensajes positivos o exitosos sobre los migrantes entre los más recomendados por la plataforma a los usuarios.

YouTube tiene más de 2.000 millones de usuarios en todo el mundo y el 75% de los contenidos que consumen son recomendados por sus algoritmos. elDiario.es se puso en contacto con YouTube para incluir su posición sobre los resultados de esta auditoría externa, pero la compañía no ha hecho comentarios específicos sobre esta. “Nuestras políticas de incitación al odio prohíben estrictamente deshumanizar a las personas y eliminamos estos contenidos de nuestra plataforma”, ha asegurado una portavoz.

“El sistema de recomendaciones de YouTube también muestra de forma destacada los contenidos fiables en la sección Ver a continuación y en los resultados de búsqueda. Evaluamos continuamente el aprendizaje automático de nuestro sistema de recomendaciones para garantizar la equidad entre los grupos protegidos”, expresan las mismas fuentes sobre el funcionamiento de los algoritmos de la plataforma.

El sesgo positivo de los refugiados

Los autores llevaron a cabo el proceso de auditoría externa haciendo un análisis cuantitativo y cualitativo. En un primer paso analizaron los vídeos que YouTube mostraba a usuarios en diferentes localizaciones (Londres, como “contexto anti-migración”, y Toronto, como “contexto pro-migración”), tanto cuando se buscaban desde perfiles de personas nativas como de personas migrantes. Encontraron pocas diferencias: “La conclusión es que el algoritmo de recomendación de YouTube no diferencia entre usuarios nativos y migrantes en cuanto al contenido que recomienda”.

“En lugar de priorizar el contenido que apoya o se opone firmemente a la migración y crea una dinámica de polarización entre los usuarios locales y los migrantes, el algoritmo parece enfocarse en retratar a los migrantes como deshumanizados y víctimas, independientemente de los antecedentes del usuario”, desglosan.

En cambio, sí encontraron una “notable diferencia” en cómo trata el algoritmo los vídeos sobre “refugiados” respecto a los de personas migrantes. En este caso la inteligencia artificial de YouTube potencia vídeos que muestran a grupos más pequeños (de dos a cuatro personas) y “predominantemente caucásicos”, “probablemente marcados por la guerra en Ucrania”, recoge el análisis. Se muestran mucho más sus rostros y “son en su mayoría individuos reconocibles”. Por el contrario, desparecen las narrativas de cruce de fronteras y de enfrentamiento con fuerzas de seguridad. El marco de víctima, no obstante, se mantiene.

En la segunda parte de la investigación, el análisis cualitativo, los autores han entrevistado a personas migrantes para saber cómo perciben la representación que se hace de ellos en las redes sociales. “Aunque la mayoría usa las redes sociales, principalmente para mantener el contacto con su comunidad, son conscientes de cómo se fomenta una imagen negativa y altamente politizada sobre ellos, mientras que la positiva se silencia”, destacan.

“Merecemos mejores redes sociales”

A la vista de los resultados de la auditoría, desde Eticas apuntan que YouTube “necesita desarrollar aún más su sistema de recomendaciones para una mejor representación de las minorías, como los inmigrantes”. También deben facilitar a los investigadores y centros de investigación los datos internos necesarios para estudiar los riesgos que pueden tener sus algoritmos de recomendación, así como aliarse con instituciones públicas para definir con exactitud los sesgos que no deberían estar presentes en el sistema, solicitan.

En este sentido, desdela compañía recuerdan que este año han lanzado el “Programa de Investigadores de YouTube” que “equipa a investigadores de todo el mundo con datos, herramientas y apoyo para avanzar en la comprensión pública de nuestra plataforma y su impacto”. Este de un “acceso escalonado al corpus de datos públicos de YouTube con la cuota que se necesite por proyecto”, así como asistencia técnica y orientación por parte de la plataforma.

“Si nosotros, un pequeño equipo, hemos podido hacer este trabajo, creo que lo mínimo es exigirles a las plataformas que proporcionan estos servicios, y que tienen beneficios gracias a ellos, que hagan esfuerzos mucho mayores para evitar estas dinámicas de discriminación y estereotipación”, afirma Gemma Galdón, directora de Eticas. “Merecemos mejores redes sociales y mejores proveedores de redes sociales, así como un mejor regulador que sea capaz de asegurar que nos protegen y que no nos representan de forma injusta”, concluye en conversación con elDiario.es.