¿Amor o algoritmo? Las apps de ligue empiezan a vetar el uso de inteligencia artificial para hablar con otros usuarios

Ligar con una persona que no es la que sale en las fotos es uno de los riesgos más habituales de las apps de citas. Ahora, los dilemas del amor en la era digital han empezado a incluir la posibilidad de que esa conversación interesante en el chat de la aplicación, en la que cada uno ha hablado de películas favoritas y, comentado las del otro, compartido recuerdos divertidos o empatizado con las dificultades del día a día del otro ha sido falsa. O más bien, automática: no había una persona detrás, sino solo una inteligencia artificial.

Bumble y Badoo, dos de las apps de ligue más utilizadas en España, han cambiado sus términos de uso para vetar esta práctica. “Cualquier intento de influir artificialmente en las conexiones, emparejamientos, conversaciones o participación mediante el uso de automatización o secuencias de comandos está estrictamente prohibido”, incluyen ahora.

Fuentes de Bumble (propietaria de Badoo) detallan a elDiario.es que la plataforma “identifica y bloquea estos bots de manera activa”, ya que han detectado que además de para conseguir citas sin esfuerzo, también se está utilizando para estafas. Para ello, han desarrollado una herramienta propia que también es de inteligencia artificial.

La decisión de Bumble llega poco después de que la firma de ciberseguridad Avast avisara de la detección en varias apps de citas alrededor del mundo de una herramienta de este tipo de última generación. “No se trata solo de perfiles falsos: esta herramienta puede entablar conversaciones con personas desprevenidas, eludir las medidas de seguridad y ocultar hábilmente sus actividades online. Lo que más nos preocupa es su uso de ChatGPT para producir conversaciones que suenan inquietantemente auténticas”, detallan.

Los chatbots especializados en conseguir citas a través de las apps de ligue no son una herramienta nueva. Los primeros modelos datan de hace unos diez años, pero hasta ahora no eran demasiado difíciles de descubrir debido a sus limitaciones. Eran como los asistentes programados por algunas grandes empresas en sus páginas web que aseguran que pueden “resolver cualquier duda”, pero que rara vez entienden a lo que se refiere el usuario.

Ahora, con la llegada de ChatGPT y su aplicación a esos mismos programas, sus capacidades se han multiplicado. “No solo imita la interacción humana, sino que la crea, creando conversaciones tan genuinas que hasta el más exigente de nosotros podría ser engañado”, explican desde Avast, que han denominado a esta herramienta “Love-GPT”.

Múltiples aplicaciones afectadas

Según el informe publicado por Avast, además de en Bumble y en Badoo, sus investigadores también han detectado el uso de Love-GPT en Tinder, Craiglist, Facebook Parejas (la herramienta para ligar de la popular red social), MeetMe, Ashley Madison o OkCupid. elDiario.es se ha puesto en contacto también con Tinder y Facebook Parejas por su política respecto al uso de estas herramientas, pero ambas han preferido no hacer comentarios.

La herramienta de IA “todavía está siendo desarrollada y mejorada”, avanza la firma de ciberseguridad, ya que han encontrado versiones de ella cada vez más potentes. Actualmente es capaz de crear cuentas falsas desde cero, eludir los captchas, borrar su rastro utilizando proxies y herramientas de anonimización de los navegadores y entablar conversaciones con otros usuarios. “El programa contiene varias cadenas de código, funciones y otras referencias relacionadas con Vietnam, por lo que atribuimos al autor la nacionalidad vietnamita”, revela Avast.

La firma de ciberseguridad ha expuesto algunos de los módulos de control de estas herramientas. La imagen sobre estas líneas corresponde al principal, que sirve para la creación de cuentas falsas para todas las apps de citas compatibles. También es capaz de extraer fotos de esas plataformas para usarlas en las cuentas falsas de su propia creación, un generador de contraseñas y un selector aleatorio de 1.000 nombres comunes: “El navegador incorporado permite al operador comprobar visualmente el comportamiento de la herramienta, así como interactuar manualmente en la página visitada, cuando sea necesario, en caso de que la automatización no sea suficiente”.

El principal propósito de esta herramienta, sospechan los investigadores, es extraer datos personales de los usuarios con los que interacciona. El uso de estos datos es desconocido, pero podría ser la suplantación de identidades en otros servicios digitales o el phishing. En este sentido, el análisis de Avast ha detectado que categoriza a sus víctimas en cuatro categorías de edad diferentes: grupo 1, de 30 a 37 años; grupo 2, de 37 a 49 años; y grupo 3, de 49 a 60 años. Al resto de usuarios los manda a una categoría “sin grupo” y “muestra qué edades son interesantes para el autor/operador de la herramienta”, señalan.

Bots para quedar

La irrupción de herramientas avanzadas basadas en la IA para llevar a cabo potenciales suplantaciones de identidad y la decisión de Bumble de vetar por completo cualquier interacción automática en sus plataformas evidencia que los bots de ligue podrían tener los días contados.

Este tipo de servicios, más básicos, se promocionan abiertamente como una manera de superar el problema de no saber qué decir a una persona completamente desconocida tras hacer match en una app de citas. Uno de los más conocidos es CupidBot. “CupidBot AI hace swipe y chatea por ti en tus aplicaciones de citas para traerte varias citas a la semana y que puedas pasar a la parte buena”, asegura. Él se encarga de elegir a las personas adecuadas en base a las preferencias de su usuario, hablar con ellas, conseguir el número de teléfono y cerrar una cita, o eso asegura. Vale 30 dólares y está dirigido específicamente a su uso por parte de hombres que quieren conocer mujeres.

No es el único servicio de estas características, que también han bebido de la ola de las inteligencias artificiales generadoras de texto para mejorar y ya se cuentan por decenas. De momento, todos ellos se ofrecen en inglés, aunque dado que ChatGPT y las herramientas de su tipo ya se desenvuelven perfectamente en castellano, esto no debería suponer un impedimento a su uso en España.

Desde Avast ofrecen varios consejos para evitar ser engañado por una de estas IA. El primero es intentar verificar que la persona al otro lado existe: “Si una conversación te parece demasiado perfecta o un perfil demasiado pulido, investiga un poco. Una rápida búsqueda inversa de imágenes puede revelar si esa foto de perfil está tomada de otro sitio”.

El segundo es supervisar si la persona respeta los ritmos normales a la hora de abrirse a un desconocido. “Se aprovechan de nuestro deseo de conectar. Desconfía de los perfiles que parezcan demasiado dispuestos a compartir historias personales o a pedir información personal”, recomiendan. Por último, evitar compartir información hasta estar seguros de que hablamos con una persona: “Nunca compartas datos personales como tu dirección, lugar de trabajo o información financiera con alguien que acabas de conocer en Internet, por muy genuino que parezca”.