Robots persuasivos: ¿puede una máquina influir en nuestro comportamiento?
Si bien puede parecer aún un escenario lejano, los robots están cada vez más cerca de formar parte de nuestro día a día en campos como la salud, la seguridad, la educación y el ocio. Se está estudiando su uso en la enseñanza infantil, el cuidado de ancianos, la vigilancia callejera y como asistentes en los hospitales, donde han sido de gran ayuda durante la pandemia de la covid-19 en la provisión de medicinas y la monitorización de los pacientes.
A medida que aumenta la complejidad de sus interacciones con las personas, las máquinas necesitan ciertas habilidades y destrezas comunicativas para expresarse y conseguir el objetivo para el que fueron diseñadas. Una de estas propiedades, y una que ha despertado el interés de muchos científicos y empresas, es la persuasión que, en los robots, se refiere a la capacidad para modificar la actitud o el comportamiento de los humanos.
A medida que aumenta la complejidad de sus interacciones con las personas, los robots necesitan ciertas habilidades y destrezas comunicativas para expresarse y conseguir el objetivo para el que fueron diseñados
Un reciente estudio en el ámbito de la robótica persuasiva, publicado en Science Robotics, explora la actitud que deberían mostrar para convencernos y, más concretamente, en el efecto que producen los robots con funciones de autoridad —como la de enfermera, profesor o guardia—. Pero ¿haríamos caso a una máquina?
La mano dura no funciona
Los robots sociales podrían necesitar, por ejemplo, convencer a un paciente de que se tome la medicación, poner orden en un aula o dar indicaciones a los trabajadores en un entorno laboral. “Si pones a un robot en un contexto social el tiempo suficiente, tarde o temprano surgirá una situación en la que la persuasión será inherente al papel que desempeña”, explica a SINC el investigador de la Universidad de Toronto Shane Saunderson, coautor de este trabajo.
En su estudio, Saunderson y su colega Goldie Nejat hicieron una serie de experimentos en los que el robot humanoide Pepper ofrecía diferentes incentivos (premios o penalizaciones) a los participantes a cambio de que llevaran a cabo una serie de tareas. Querían saber un poco más sobre por qué tratamos a las máquinas de manera muy similar a los humanos en muchas ocasiones, pero no en otras.
En un experimento, los investigadores comprobaron que los autómatas conseguían mejores resultados cuando mostraban una conducta de compañerismo y no autoritaria
Comprobaron que los autómatas conseguían mejores resultados cuando mostraban una conducta de compañerismo y no autoritaria. Esta última causaba rechazo. Una posible explicación es que las personas no creían que su autoridad fuera legítima. Además, percibían una actitud dominante (que calificaron de “inhumana” y “siniestra”) y se sentían amenazadas.
En psicología social se han descrito casi un centenar de estrategias de persuasión, también conocidas como de obtención del cumplimiento, es decir, dirigidas a alterar el comportamiento ajeno. Para ello, se pueden utilizar herramientas como la lógica, las emociones, las amenazas, las recompensas o la autoridad, cuya efectividad está a su vez influida por las formas de expresión no verbales como los gestos o la postura corporal.
La apariencia importa
En las investigaciones sobre la comunicación entre robots y personas se ha probado el efecto de muchos de estos factores. Un estudio publicado en mayo de este año en PLOS ONE comprobó que los participantes sonreían y hacían más caso a las demandas de las máquinas humanoides cuando estas les tocaban.
Un equipo de la Universidad Tecnológica de Eindhoven (Países Bajos) y Singapur combinó dos estrategias, las miradas y los gestos, para persuadir a un grupo de individuos a los que contaron una historia sobre las consecuencias negativas de mentir. Descubrieron que el mensaje calaba más cuando el robot mantenía el contacto visual, independientemente de su expresión corporal.
Para María Malfaz, investigadora en robótica social de la Universidad Carlos III de Madrid, “la expresión emocional entre un robot social y un humano es tan fundamental como en la comunicación entre humanos”. Las máquinas pueden utilizar expresiones faciales, la voz o los gestos corporales para transmitir emociones, pero su repertorio es limitado y, a veces, pueden no ser fácilmente reconocibles.
Para que nos sintamos cómodos en la interacción con un ser artificial, es clave que no resulte amenazante, que no sea muy grande o esté demasiado alejado de nuestra idea de una persona, una mascota o un niño
Pero, según señala esta experta a SINC, “lo principal es la estética”, que debe estar en armonía con la voz y los movimientos. Para que nos sintamos cómodos en la interacción con un ser artificial, es crucial “que no resulte amenazante, que no sea muy grande y que tampoco esté demasiado alejado de nuestra idea de una persona, una mascota o un niño”, según la situación. “Debe ser agradable a la vista, pero dependerá también del usuario al que esté dirigido”, aclara la investigadora.
En el ámbito de la persuasión, el aspecto de la máquina también dependerá de su objetivo y el tipo de estrategia que utilice. Un robot del tamaño de un insecto difícilmente resultaría amenazador, mientras que sería difícil asociar cualidades como la ternura o la compasión a uno de tipo Terminator.
Sesgos humanos
Un riesgo de que las máquinas se parezcan a las personas es que sean objeto de los mismos sesgos humanos. Es el resultado de lo que en robótica social se ha bautizado como el paradigma de que los ordenadores son agentes sociales o CASA (del inglés computers are social actors), surgido de un estudio publicado en el 2000 por Clifford Nass y Youngme Moon, de las universidades de Stanford y Harvard, respectivamente. Estos investigadores posturalon que la gente aplica las mismas normas sociales y expectativas a las máquinas que a los humanos, aunque estas no tengan sentimientos, intenciones o motivaciones.
Juzgamos con los mismos estereotipos a los robots femeninos y masculinos que a los hombres y mujeres
Se ha evidenciado, sobre todo, en el caso del género. “Juzgamos con los mismos estereotipos a los robots femeninos y masculinos que a los hombres y mujeres”, dice Saunderson. Un estudio en el que se utilizó un robot guardia de seguridad en una universidad de Singapur confirmó que las características masculinas eran más aceptadas entre los estudiantes.
Los autores de otra investigación, publicada por el Instituto de Ingenieros Eléctricos y Electrónicos, comprobaron la influencia del género de una máquina humanoide que pedía donaciones a los visitante en el Museo de Ciencia de Boston. Los hombres eran más proclives a aportar dinero cuando tenía apariencia de mujer y, en general, todas las personas tendían a considerar al robot de sexo opuesto más fiable y atrayente. No es casualidad que muchos navegadores y asistentes virtuales tengan por defecto voz femenina.
Persuasión adaptativa e IA
Aunque de momento se ha aplicado de forma limitada en el campo de la persuasión, la inteligencia artificial (IA) podría cambiar las reglas del juego. Saunderson es autor de otra investigación, aún en revisión, que explora la idea de persuasión adaptativa, de forma que las máquinas aprenderían de los resultados y mejorarían sus estrategias. “Cabe esperar que este tipo de sistemas serán más convincentes y efectivos porque podrán adaptar su comportamiento a las necesidades específicas y contexto de cada individuo, como haríamos nosotros”, explica el investigador.
Gracias a la inteligencia artificial, los robots aprenderían de los resultados y mejorarían sus estrategias
En el futuro, además, las máquinas podrían utilizar nuestros datos de redes sociales o de compras para producir algún efecto en nosotros. Pero si su capacidad para convencernos fuera tan efectiva, ¿podría considerarse una forma de manipulación? Las investigaciones en robótica persuasiva han ido acompañadas desde sus inicios por estudios que analizan sus implicaciones éticas. La línea entre lo que puede considerarse aceptable y no es muy fina, y depende de los autores.
“Los robots están programados por personas. Si hacen algo es porque la persona que ha escrito el programa así lo ha querido”, subraya Malfaz, que trabaja desarrollando sistemas de toma de decisión para robots autónomos.
Para Saunderson, todas las cuestiones morales pueden resolverse con transparencia. Deberá estar claro quién opera un robot con cualidades persuasivas, qué capacidades tiene y qué estrategias, datos y tecnologías usa para conseguir su objetivo. Por desgracia, “la industria tecnológica no está haciendo un gran trabajo manteniendo una práctica ética rigurosa, así que se necesitará una regulación”, advierte el investigador estadounidense.
Más allá de los estudios, los robots persuasivos todavía no están entre nosotros. Pero en realidad ya estamos rodeados de tecnologías persuasivas gracias a internet. Las redes sociales y otras empresas recogen los datos de los usuarios para identificar la mejor forma de dirigirse a ellos o para mostrarles anuncios personalizados. La persuasión puede utilizarse con buenos propósitos, pero también para contribuir al control que ejerce el mundo digital.
1