Darles de su propia medicina
Mis estudiantes de inteligencia artificial tienen que hacer una presentación en clase de un tema relacionado con noticias o artículos publicados en medios de comunicación. Pueden elegir cualquier tema relacionados con la IA, pero no se trata de abordar cuestiones tecnológicas sobre el diseño o implementación de sistemas o soluciones basadas en IA, sino de reflexionar sobre cómo estas tecnologías inteligentes afectan de un modo u otro a nuestras vidas.
Uno de los grupos eligió una noticia sobre un bot creado por la compañía de telecomunicaciones O2, pensado para responder a las llamadas de supuestos estafadores. Cuando la llamada procede de un número sospechoso de ser utilizado por delincuentes que se hacen pasar por lo que no son -trabajadores de la compañía de telecomunicaciones con la que operamos, funcionarios de hacienda o empleados de un banco, pongamos por caso-, reciben la contestación de una IA que se hace pasar también por lo que no es: una mujer anciana que no para de darle a la lengua. Llegado el caso, la encantadora señora puede incluso darle los datos de su cuenta bancaria al supuesto estafador, pero no le servirán de nada, ya que se los habrá inventado sobre la marcha.
Según O2, el 69% de los británicos han sido víctimas de estafadores en algún momento y el 71% declararon que les gustaría vengarse de quienes les han intentado engañar a ellos o a sus allegados. Pues bien, a través de Daisy, que así se llama el bot, pueden hacerlo. Daisy aparenta ser una persona vulnerable, presa supuestamente fácil para los profesionales del engaño, y una vez que estos han mordido el anzuelo, se trata de hacerles perder el mayor tiempo posible. Ha habido casos en los que la conversación ha superado los 40 minutos de duración, para desesperación del timador, que después de una larga conversación con una abuelita entrañable ha acabado yéndose de rositas.
Después de cada presentación por parte de los estudiantes dedicamos unos minutos a debatir sobre el tema presentado. En mi caso les hago comentarios sobre el fondo y la forma, con el objetivo de que mejoren también sus habilidades de comunicación. Sobre el tema que les acabo de comentar surgieron pronto opiniones encontradas y algunas reflexiones ciertamente interesantes. Por ejemplo, ¿podría demandar el estafador a la compañía O2 o incluso al titular de la línea telefónica, por haberle engañado o haberlo intentado, al menos? ¿De acuerdo con el reglamento europeo de IA, estaría prohibido el uso de este bot, al no identificarse como no humano? ¿No hay un sesgo de género al haber simulado una mujer anciana como perfil de persona especialmente vulnerable? ¿Podrán los estafadores usar una Daisy timadora para no perder su tiempo y poder abordar a cientos o miles de potenciales incautos simultáneamente? ¿Podría esa Daisy timadora distinguir cuando le responde una Daisy antifraude de una persona real? ¿Podría además aprender de forma continua y durante la interacción con personas y máquinas, de modo que mejore su arte para la persuasión mejorando así sus capacidades de engaño?
El debate sobre Daisy nos dejó muchas preguntas y opiniones muy diversas. Hemos creado un mundo de máquinas capaces de aprender y hasta de engañarnos a nosotros y entre sí. ¿Estamos construyendo un mundo donde ni siquiera las máquinas han de confiar unas en otras? Daisy les da a los estafadores de su propia medicina, haciéndose pasar por quien no es, pero es posible que las máquinas que creamos nos den a nosotros de la nuestra, perpetuando sesgos, generando desconfianza, robándonos el trabajo y hasta nuestro tesoro más preciado, el lenguaje. En nuestras manos está que no acabe siendo así, y para eso la educación sigue siendo nuestra mejor herramienta. Por eso mis estudiantes tienen necesariamente que pensar y hablar en clase.
0