Hace escasas horas, representantes del estado norteamericano de Iowa han reconocido como entes libres e independientes a Tabarnia y el Cantón de Cartagena. Mientras tanto, y como respuesta, miembros del Gobierno filipino han asegurado estar deseosos de volver a la configuración mundial de la segunda mitad del siglo XVI para formar parte de una España en la que no se volverá a poner el sol. Publicar ambas noticias poco antes de que acabe el año no es una inocentada atrasada: supone dar pábulo a dos noticias falsas recién cocinadas (y bastante absurdas).
Según un reciente informe de la consultora Gartner, en 2022 la mayoría de habitantes de las principales economías del mundo consumirán más noticias falsas que reales. Y no es lo peor que vaticinan desde la firma: dos años antes, el volumen de bulos, realidades maquilladas y falsedades será tal que sobrepasará la capacidad de la inteligencia artificial para detectarlos.
Sin embargo, distintas iniciativas mantienen la esperanza viva. Una aldea de irreductibles desarrolladores resiste, con sus respectivos trabajos, los envites de las ‘fake news’. Al fin y al cabo, si la ciencia ya ha demostrado que los ‘bots’ que pululan por las redes sociales juegan un papel clave en la difusión de noticias falsas, por qué no combatir sus efectos con más inteligencia artificial. O, al menos, intentarlo.
De hecho, mientras gigantes como Facebook se ven desbordados por el auge de las ‘fake news’ en sus plataformas y fracasan una y otra vez en su lucha contra ellas, otras iniciativas han enseñado a sus algoritmos a leerse internet (casi literalmente) para discernir qué es real y qué no. En base a la propia información que hay en la Red, claro.
Es el caso de AdVerif.ai, un ‘software’ creado originalmente para detectar a partir del procesamiento del lenguaje natural patrones en los correos no deseados para evitar infecciones de ‘malware’ y ‘spam’ y que ahora tiene una segunda vida gracias a las noticias falsas: desde el pasado mes de noviembre, esta inteligencia artificial está disponible para que plataformas de contenido evalúen la veracidad de las noticias que difunden.
Para empezar, AdVerif.ai escanea la noticia en cuestión en busca de señales que indiquen que algo no va bien. Encabezados que no se corresponden con algunas partes del texto o demasiadas mayúsculas en el titular son algunos de los indicios que busca el algoritmo. Una vez analizado el contenido, también verifica la noticia a partir de una base de datos que contiene miles y miles de publicaciones tanto rigurosas como falsas en busca de posibles coincidencias. Finalmente, los usuarios de este algoritmo reciben un informe con una puntuación: se trata de la probabilidad de que esa noticia en cuestión sea o no de un bulo.
Un sistema similar está siendo desarrollado, al mismo tiempo, por alumnos de la Universidad de West Virginia: la inteligencia artificial analiza el texto para posteriormente darle una puntuación que no representa otra cosa que la probabilidad de que una noticia determinada sea falsa.
Más allá de los ‘bots’ en redes sociales, las empresas de ciberseguridad aseguran que hay ciertas semejanzas entre los métodos para difundir noticias falsas y los empleados para distribuir ‘malware’. Así, la detección de ‘fake news’ a golpe de inteligencia artificial no es cosa solo de ‘startups’ o proyectos universitarios. Sin ir más lejos, Talos Intelligence, la división de ciberseguridad de Cisco, ha ganado recientementeThe Fake News Challenge, la primera competición creada con el objetivo de desarrollar herramientas con las que detectar bulos y noticias falsas.
Para alzarse con la victoria, los de Cisco combinaron dos sistemas de inteligencia artificial distintos basados en el ‘deep learning’ para analizar a fondo el que por ahora parece ser el talón de Aquiles de las ‘fake news’: esa falta de concordancia que a veces se da entre el titular y el cuerpo de la noticia. En base a la relación que haya entre esas dos partes fundamentales del contenido, así será la probabilidad de que sea o no cierto y riguroso.
El comienzo de una guerra
No obstante, este parece ser solo el comienzo de una larga contienda en la que los responsables de la difusión de los bulos y aquellos que intentan darles caza jugarán al gato y al ratón a través de sus respectivas inteligencias artificiales. Si el problema actual está en la falta de solidez en la relación del titular con el texto, las próximas ‘fake news’ nacerán sin esta tara y serán necesarios nuevos algoritmos para detectar noticias falsas.
De hecho, ya hay quienes tratan de anticiparse a esta jugada para desarrollar herramientas con las que advertir a los lectores y, al mismo tiempo, darles alternativas. “Las redes sociales generan burbujas”, recuerda el doctorando de Psicología de la Universidad de Yale Michael Lopez-Brau. Junto a otro compañero de la facultad de Psicología y dos estudiantes de informática especializados en ‘machine learning’, Lopez-Brau desarrolló una herramienta con la que el equipo ganó el reto de la Poynter Fellowship in Journalism durante una ‘hackathon’.
Se trata de una extensión para Google Chrome diseñada para advertir a los internautas cuando acceden a una web que suele difundir bulos, así como cuando tengan en pantalla una noticia compartida en redes sociales que sea falsa. Hasta ahí, algo similar a lo que hace la extensión creada por los españoles responsables de Maldito Bulo o el Décodex lanzado este mismo año por el francés Le Monde. Sin embargo, el equipo de universitarios se propuso ir más allá.
“Las redes sociales hacen que sea extremadamente fácil para la gente seguir a personas con intereses similares, por lo que a menudo no existe una oportunidad real de enfrentarse a un punto de vista opuesto”, explica Lopez-Brau. Así, la herramienta creada por su equipo, llamada OpenMind, analiza las noticias en busca de sus principales protagonistas con la intención de determinar cuál es la inclinación política del texto. Todo, para sugerirle al lector otras visiones de ese mismo tema: noticias con puntos de vista alternativos con las que los internautas puedan abandonar su círculo de confort ideológico.
De hecho, hace escasos días Facebook anunció que va a hacer un uso similar de la inteligencia artificial para ofrecer a sus usuarios “Artículos relacionados”. Si bien el objetivo de los de Zuckerberg no pasa por dar puntos de vista opuestos en lo ideológico, sí que pretenden dar algo de contexto para cada historia compartida con la intención de que sean los mismos usuarios los que vean, a través de distintos enlaces, si una noticia es falsa o no.
En cualquier caso, la inteligencia artificial cuenta con una gran ventaja respecto a los humanos voluntarios que se han lanzado a la búsuqeda de bulos y ‘fake news’: tiene una capacidad enormemente superior a la nuestra a la hora de leer sus fuentes, que no son otras que las miles de millones de webs presentes en internet.
Así, otras propuestas pasan simplemente por hacer que los ‘bots’ al servicio de los cazadores de bulos buceen por internet antes de verificar o echar por tierra una noticia. Desde la compañía de seguridad DataVisor explican que ya trabajan en un algoritmo que sería capaz de leer una noticia para, a continuación, buscar si otras webs de confianza están haciéndose eco de los mismos hechos.
“'The New York Times' es probablemente una fuente más respetable que una página web desconocida y mal diseñada”, afirmaba una de sus responsables, Catherine Lu, en una entrevista. “La inteligencia artificial puede ser entrenada para predecir la reputación de un sitio web, teniendo en cuenta características como su puntuación en el 'ranking' Alexa o el nombre del dominio”, explicaba.
Algo similar persigue FiB, otra extensión para Google Chrome nacida de una 'hackathon' de la Universidad de Princeton. Esta inteligencia artificial no hace otra cosa que acompañar al usuario de Facebook en su tradicional paseo por el 'feed' advirtiéndole, por medio de un icono, de la veracidad o la falsedad del contenido que hay ante sus ojos. Todo, a través del reconocimiento de imágenes, la búsqueda de palabras clave y el análisis de la web de origen.
Irónicamente, en todos estos casos, cuantas más ‘fake news’ se generan, más aprende la inteligencia artificial a detectarlas. Y sí, es probable que los responsables de las noticias falsas descubran la forma de esquivar los algoritmos actualmente en desarrollo, pero un nuevo sistema para darle caza seguirá tras sus pasos. Al fin y al cabo, este solo es el comienzo de una guerra entre inteligencias artificiales en el que el botín no es otro que la credulidad de los lectores y su valiosísimo tiempo de atención.
---------------------------------------
Las imágenes de este artículo son propiedad, por orden de aparición, de Max Pixel, Paul Sableman y Wikimedia Commons