La conversación en Twitter sobre la participación de Pablo Casado en El Objetivo de La Sexta este domingo estuvo marcada por la irrupción de un comando de cuentas falsas que impulsaron los argumentos del candidato del PP. Los bots recurrieron a identidades inventadas y fotos de fallecidos para aparentar ser usuarios reales que apoyan las tesis de Casado. Contactado por eldiario.es, el PP ha negado cualquier vinculación directa con los bots: “El PP no tiene cuentas falsas. Pero hay simpatizantes y militantes que en su casa hacen lo que quieren”, han expuesto fuentes oficiales del partido.
La irrupción del comando fue desenmascarada por un usuario de la red social. Empleando tácticas como la búsqueda inversa de las imágenes para ver si habían aparecido antes en la red y en qué contexto, así como el análisis de su comportamiento y comentarios, corroboró que se trataba de una identidad inventada. Una de las cuentas falsas, que usaba una foto de un estudiante mexicano fallecido como imagen de perfil, ya ha sido desactivada tras ser señalada por los usuarios.
La imagen del estudiante, Vicente de Jesús Hermosillo Hernández, apareció en una noticia del medio mexicano El Sol del CentroEl Sol del Centro fechada en diciembre de 2018. Cursaba la carrera de derecho de la Universidad de Guadalajara, en México. “El fiscal descartó que el joven haya tenido relación con la delincuencia”, informó el mismo medio en la noticia que confirmaba su muerte tras pasar varios días desaparecido.
Además del uso de fotos de otras personas, un indicio de que un perfil no es quien dice ser es la fecha de creación de la cuenta. Un perfil antiguo disimula la posibilidad de que la cuenta esté creada con el único objetivo de promocionar un mensaje. Es el mismo motivo por el que fichar a las granjas de bots que los crearon es más caro. En el caso del comando que ha apoyado a Pablo Casado, las cuentas fueron creadas en febrero de 2019, mes en el que el presidente Pedro Sánchez convocó elecciones. Han borrado los tuits que divulgaron antes del 8 y 9 de marzo y que, según la investigación del usuario que los ha destapado, no tenían nada que ver con la política. Un cambio radical en el contenido de los tuits suele ser otra de las pruebas para descubrir un perfil automatizado o mercenario.
La contratación de granjas de bots, cuentas mercenarias o el pago a influencers para que impulsen de forma artificial a determinado candidato o idea, difundir bulos interesados o simplemente intoxicar una conversación, se ha multiplicado en los últimos tiempos. Sin embargo, su aparición no puede ser directamente relacionada con la figura a la que supuestamente están apoyando, ya que sus intereses pueden ser más elaborados o, simplemente, pretendan generar caos.
Esta táctica se conoce como astroturfing, un juego de palabras en inglés que utiliza la marca de un fabricante de césped artificial para nombrar una estrategia de marketing. Esta se basa en camuflar la propaganda de apoyo a un candidato como un movimiento de base, surgido desde abajo. Aunque algunas tácticas para desenmascararlo pueden ser empleadas por cualquier usuario, otras requieren el empleo de herramientas más avanzadas. La investigadora de la Universidad Carlos III, Mariluz Congosto, se ha especializado en detectarlo y analizarlo gracias a estas herramientas.
En los primeros pasos del análisis del comando de bots que entró en acción la noche del domingo, la investigadora señala a este medio otros puntos sospechosos de las cuentas, como que una de ellas enlaza en sus comentarios a @ppopular, la antigua cuenta en Twitter de los de Casado, que recientemente fue sustituida por @populares.
La investigación del rastro que deja un enjambre de bots a menudo se basa en indicios y conexiones. “Por el hilo se saca el ovillo”, resume Congosto en conversación con este medio: “Fíjate en las cuentas que retuitean, como esta, salen más animalitos de la granja”. Los bots creados por una misma empresa a menudo se retuitean entre ellos y simulan el comportamiento que tendría una comunidad de usuarios reales, con interacciones como respuestas o comentarios. El objetivo es que su actividad resulte lo más verosímil posible para confundir a los usuarios.
En ese primer análisis, la investigadora ha detectado que las cuentas se reparten el trabajo. Uno de los bots centra su trabajo en compartir los contenidos de Pablo Casado, mientras que otra está más centrada en compartir aquello que difunde la cuenta oficial del PP.