Los algoritmos de recomendación han sido uno de los peajes inesperados que ha traído consigo la sociedad digital. Cada servicio online cuenta con su propio sistema de guía y sugerencia de opciones para los usuarios, que en el caso de las redes sociales se han convertido en omnipresentes curadores de contenido criticados por crear burbujas ajenas a la realidad que se esconde tras los seguidores, los me gusta y los comentarios. Sin embargo, el avance de estos sistemas de recomendación no ha ido parejo a la revisión académica sobre cómo nos afectan realmente, debido en gran parte a que las empresas que los desarrollan no están obligadas a auditarlos ni a abrirlos a investigadores independientes.
¿Cómo afectan a las personas esos algoritmos de recomendación? ¿Son un apoyo a nuestras decisiones o, en cambio, pueden manipular la forma en que nos comportamos? Según cuatro experimentos realizados por dos investigadoras españolas, la respuesta podría estar más cerca de la segunda opción incluso en procesos tan importantes como la elección de pareja o la preferencia por un candidato político u otro.
Los resultados de las cuatro pruebas se han publicado este miércoles en la revista PLOS One. Se centran en analizar dos contextos de actuación diferentes: cuando los algoritmos hacen una recomendación directa al usuario y cuando entran en acción de manera encubierta, sin que su efecto sea tan evidente para las personas sobre las que actúan. Los resultados apuntan que “se pueden manipular tipos muy diferentes de decisiones críticas humanas mediante la persuasión algorítmica explícita o encubierta, una vez que se conocen los parámetros adecuados”, explican las autoras Ujué Agudo, de Bikolabs; y Helena Matute, catedrática de Psicología Experimental de la Universidad de Deusto.
Se pueden manipular tipos muy diferentes de decisiones críticas humanas mediante la persuasión algorítmica explícita o encubierta, una vez que se conocen los parámetros adecuados
Su estudio ha mostrado que los algoritmos de recomendación directa son más efectivos en un entorno de elección de pareja que en un contexto político. Las investigadoras expusieron a los sujetos a varias fotografías de personas a las que podrían querer conocer (como en una app de citas). A una parte de los participantes en el estudio se les mostraron esas mismas fotografías pero resaltadas con un distintivo que señalaba una supuesta afinidad entre sus personalidades descubierta por un algoritmo. Las pruebas evidenciaron que los usuarios tienden a escoger como pareja potencial a las personas sobre las que se recalca esa presunta compatibilidad, aunque no tuvieran ninguna información sobre en qué se basó el algoritmo para calcularla.
Esa afinidad entre ellos era, de hecho, totalmente ficticia. Para revestir la decisión del algoritmo de un aura científica las investigadoras pidieron a los participantes que hicieran un test de personalidad al principio del experimento. Después se les entregó una informe individual que en realidad era el mismo para todos. Incluía una serie de aseveraciones ambiguas que todos los participantes pudieran tomar como descripciones de su personalidad. Esta supuesta base científica bastó para que los participantes concedieran credibilidad a las recomendaciones del algoritmo.
Manipulación encubierta y sesgos cognitivos
Al testar el impacto en las decisiones políticas que pueden llegar a tener los algoritmos, los experimentos mostraron que aquellos que mejor funcionan son los que entran en acción de manera más sutil y menos aparente para el usuario. En este caso la prueba se basó en mostrar a los participantes a fotos de candidatos políticos ficticios y pedirles que escogieran al que les pareciera más confiable. El algoritmo de recomendación directa no tuvo un efecto evidente en su decisión, pero sí el sesgo de familiaridad. Este tipo de sesgos cognitivos son atajos mentales ampliamente explotados en el terreno digital, ya sea para manipular el comportamiento de los usuarios a partir del diseño web o en la industria de la desinformación.
Las investigadoras lograron activar el sesgo de familiaridad de los participantes con un algoritmo que simplemente mostró más veces las fotografías de unos candidatos que las de otros. Los participantes tendieron a elegir a los candidatos cuya foto habían visto un mayor número de veces. El sesgo de familiaridad, —“muy útil” para el cerebro como método de ahorro de energía en decisiones simples, explican las autoras— se convirtió en un recurso que el algoritmo consiguió explotar para orientar la decisión de los usuarios. “Estas sutiles estrategias pueden hacer que la influencia del algoritmo en el comportamiento pase desapercibida, y la gente puede sentir a menudo que ha tomado su decisión libremente aunque pueda estar votando en contra de sus propios intereses”, expone el estudio.
Un algoritmo más sofisticado, como aquellos con los que la gente interactúa en su vida diaria a través de Internet, puede seguramente ejercer una influencia mucho más fuerte
“Si nuestro algoritmo ficticio y simplista puede lograr este nivel de persuasión sobre estas preferencias sencillas y básicas sin necesidad de elaborar un perfil individualizado de los participantes, esto sugiere que un algoritmo más sofisticado, como aquellos con los que la gente interactúa en su vida diaria a través de Internet, puede seguramente ejercer una influencia mucho más fuerte sobre ellas. Sólo como ejemplo, imaginemos la influencia que podrá alcanzar el algoritmo de Facebook en su nuevo servicio de citas”, recalca.
Aprender a convivir con los algoritmos
Otro estudio muy reciente publicado en Nature mostró que las personas también tienden a confiar más en los algoritmos que en las personas según se va haciendo más complicada la tarea que se les encomienda. No obstante, las investigadores autoras del estudio sobre los algoritmos y las decisiones políticas o para elegir pareja recuerdan que es necesario un mayor escrutinio de los sistemas de inteligencia artificial: “Se necesitan más experimentos de acceso público para comprobar la eficacia de los diferentes estilos de persuasión que pueden ejercer los algoritmos en contextos críticos de influencia”.
Es de vital importancia educar a las personas para que no sigan ciegamente los consejos de los algoritmos
“La presente investigación muestra que las personas están dispuestas a respaldar las sugerencias de los algoritmos y que nuestros sesgos nos hacen vulnerables a ellos. Por lo tanto, un enfoque centrado en el ser humano no sólo debería tener como objetivo establecer los requisitos críticos para la fiabilidad de la IA, sino también minimizar las consecuencias de esa confianza en las decisiones y la libertad humanas”, enfatizan: Es de vital importancia educar a las personas para que no sigan ciegamente los consejos de los algoritmos“. Los algoritmos no van a desaparecer así que mejor aprender a convivir con ellos y respetar su capacidad de vestir con ropas científicas lo que en realidad son estrategias empresariales.
No obstante, el vacío legal en el que se mueven no durará para siempre. Este mismo miércoles la Comisión Europea ha presentado su propuesta de reglamento para regular la inteligencia artificial. La burocracia comunitaria es larga y el paso que ha dado Bruselas es la primera piedra de las negociaciones, aunque el borrador plantea prohibir “los sistemas o las aplicaciones de IA que manipulan el comportamiento humano para eludir la voluntad de los usuarios”. También cualquier sistema de “puntuación social” al estilo chino y el reconocimiento biométrico, otro área muy criticada pero que agentes españoles como Renfe ya han intentado desplegar.