Cualquier búsqueda en Google de una gran noticia o de un fenómeno viral devuelve muchos resultados. Es casi imposible saber quién fue el primero en contarlo, quién invirtió el tiempo en investigarlo o escribirlo por primera vez, y sin embargo todos esos resultados de Google compiten entre sí por nuestro click en igualdad de condiciones, como si tuvieran el mismo mérito.
La guerra sucia de las búsquedas en Internet abarca todo tipo de técnicas. Una de ellas es identificar temas de moda o asuntos relevantes en un momento dado, localizar la fuente original de la información y replicar el contenido, a veces disimuladamente y otras veces con un copia-pega más descarado. La intención en estos casos no es la de hacerse eco de una noticia relevante, como también sucede en los medios digitales, sino sencillamente intentar arrebatar a la fuente original el tráfico que llega desde las búsquedas.
Google dice que quiere acabar con eso. A través de Richard Gingras, vicepresidente de Noticias de la compañía, anuncian su intención de primar los artículos y los reportajes periodísticos que provengan de las fuentes originales desde donde se publican para que permanezcan más tiempo en las primeras posiciones de las búsquedas. De esta forma, las webs que se dedican a rebotar los contenidos se verán perjudicadas.
“Debería ser un cambio útil para el periodismo”, explica Rodrigo Laso, experto en SEO y analítica web en eldiario.es. “Pero hay que ver cómo hacen el algoritmo, suelen hacer mucha prueba/error”, continúa. Google asegura a través de Gingras que realizarán cambios en sus productos “en todo el mundo” para destacar “los artículos que identificamos como reportajes originales significativos”.
El cambio premiaría el esfuerzo de publicar contenido original y no, como hasta ahora, la rapidez en replicarlo de manera optimizada para los buscadores. Según los expertos, además de los medios digitales que más apuestan por la información, es previsible que los medios locales y con menor difusión que los grandes periódicos también se vean beneficiados por la medida, ya que hasta ahora si alguno de estos publicaba una exclusiva era rápidamente replicada por las agencias de noticias o eran copiadas por otros medios de mayor tirada. Finalmente, los que aparecían en las primeras posiciones en los resultados de búsqueda de Google eran estos y no las fuentes primigéneas.
Laso pone un ejemplo relacionado con un artículo reciente de eldiario.es que explicaba qué empresa fabrica la mayoría de croquetas congeladas en nuestro país: “Al día siguiente el tema estaba en varios medios y luego más webs”, y esas páginas aparecían por encima del artículo original incluso haciendo búsquedas muy específicas. “Está claro que las copias no deberían estar nunca por encima del artículo original”, dice Laso. “Siempre se hacen artículos citando a otros artículos”, cosa que es una práctica habitual en el periodismo digital con fines informativos, “pero ahora se estaban haciendo en muchas ocasiones con el objetivo de desbancar al original y quitarle el tráfico desde Google”, explica. “El cambio, si funciona, desincentivará en teoría hacer este tipo de cosas”.
Habrá que darle margen a Google para saber si de verdad se trata de una buena idea o todo sigue como hasta ahora. Al menos, la multinacional promete que estará atenta a los cambios: “Nuestros esfuerzos evolucionarán constantemente a medida que trabajemos para comprender el ciclo de vida de una historia”.
“Si penalizan medios que dan muchas fake news y si valoran más a los medios que no las dan, pues va a ser muy beneficioso para el usuario”, continúa Laso. Pero nadie sabe cómo funciona en la práctica el algoritmo de Google: es lo que comúnmente se denomina como black box (o caja negra, en castellano), un concepto utilizado sobre todo en Inteligencia Artificial para referirse a las redes neuronales y los algoritmos con los que son programadas.
Hay una novedad importante para Google: un equipo de más de 10.000 personas será el encargado de vigilar y corroborar que el cambio en el algoritmo funciona. Para ello, Google ha actualizado sus directrices para la evaluación de la calidad en las búsquedas, un documento de 167 páginas que los evaluadores, distribuidos por todo el mundo y subcontratados por otras empresas, han de seguir para comprobar la calidad de las búsquedas. “Sus comentarios nos ayudan a entender qué cambios hacen que la búsqueda sea más útil”, explica la multinacional.
Aseguran que su feedback no cambia “el ranking de los resultados específicos que revisamos; en vez de eso, es usado para evaluar y mejorar los algoritmos de manera que se apliquen a los resultados”. Este equipo de 10.000 personas también ayuda a Google a conocer en qué lenguaje está escrito una web o qué es importante en ella.
La empresa usará a los evaluadores para que categoricen a los medios. Serán ellos los que definan la reputación de cada periódico, web o agencia de noticias que publique una información relevante. “En teoría van a usar la reputación del medio, pero a ver cómo son las tripas de esa reputación. ¿Hasta dónde se van a meter? ¿Cómo van a penalizar?”, advierte Laso. Otros de los criterios será si es una noticia de última hora, en cuyo caso la promocionará.