Un blog sobre leyes y tecnología por y para iLetrados digitales. Derecho para todos los públicos de la mano de Jorge Campanillas, Marina Franganillo, Miriam García, David Maeztu, Jorge Morell, Andy Ramos, Ruth Sala, Alejandro Sánchez, Alejandro Touriño y Roberto Yanguas.
Quizá Facebook no manipuló tus sentimientos, pero sí las reglas del juego
A finales de 2011 un miembro del equipo de 'data scientists' de Facebook, y las universidades de Cornell y California, se ponen de acuerdo para analizar y manipular el 'feed' de noticias de los usuarios de la red social. Introducen un programa, el 'Linguistic Inquiry and Word Count' (LIWC2007), para determinar si un elemento del 'feed' contiene palabras emocionalmente positivas o negativas. Por ejemplo, “happy” (feliz) o “hurt” (ofendido).
Durante una semana de enero de 2012, eligen al azar 689.003 conejillos de Indias. A un grupo le muestran menos noticias con palabras negativas, mientras que al otro le muestran menos con palabras positivas. A la semana siguiente, comprueban que los usuarios que vieron menos elementos negativos escribieron más 'posts' positivos, y viceversa: los que vieron menos noticias positivas, publicaron más cosas negativas.
De ello deducen que una comunidad puede afectar el estado emocional de uno de sus miembros online y de forma casi exclusivamente textual, sin necesidad de contacto personal ni de comunicarse verbalmente.
En resumen, Facebook intentó manipular el estado de ánimo de un grupo de personas y, en teoría, lo consiguió. Esto sitúa el estudio en el ámbito de una investigación en seres humanos, según la 'Declaración de Helsinki de la AMM - Principios éticos para las investigaciones médicas en seres humanos', y la opinión de buena parte del mundo académico. Ahora bien, también hay quien defiende que estamos ante un simple test de modelo A/B como los que, por ejemplo, ayudan a elegir una interfaz u otra.
¿Es cierto todo esto?
Sí, aquí tienes el interesante 'paper' que lo explica para que lo leas por ti mismo (en inglés). Una investigación que, por cierto, lleva publicada desde el 2 de junio y no se hizo 'popular' hasta que The Atlantic la mencionó hace unos días.
En cualquier caso, lo que mucha gente está obviando sobre los resultados es que el cambio fue minúsculo, de un 0,07%, en el caso del incremento de mensajes positivos. Podría ser simple ruido estadístico y no estar estrictamente relacionado con la manipulación de Facebook.
Además, hay otro problema: el 'software' que se utilizó, el citado LIWC, data de 2007, antes del fenómeno de las redes sociales. Es decir, está pensado para analizar textos de unas 400 palabras pero no mensajes de 100 caracteres. De hecho, justo por esa razón, la metodología del estudio podría ser cuestionable.
En todo caso, Facebook ya ha pedido disculpas por el estudio, lo que no ha evitado que el Reino Unido esté pensando abrir una investigación sobre el asunto.
¿Pudo afectarme?
A no ser que utilices Facebook en inglés, no. De hecho, ese fue en teoría el único criterio para elegir a los participantes, un 0,04% de los miembros de la red social en ese momento. Lo que suscita otra pregunta interesante: ¿participaron menores de edad? Los autores no se han pronunciado sobre ello, así que no debemos descartarlo.
Si así fuera, la polémica cuestión del consentimiento se vuelve incluso más compleja. ¿Un estudio cuya finalidad es la investigación en seres humanos, en el que participan menores, y sus representantes legales no son avisados? Mal negocio, si este fuera el caso.
¿Quién pagó el estudio?
Que participaran dos universidades junto a uno de los miembros del equipo de analítica de Facebook da a entender que el estudio tenía un cierto componente público, financiado en parte por el gobierno de Estados Unidos (¡qué comiencen las conspiraciones!). De hecho eso se dijo inicialmente, aunque se ha acabado desmintiendo.
La cuestión tiene su importancia. Según Facebook, al no ser un estudio gubernamental sino exclusivamente privado, no estaban obligados a cumplir la normativa y regulaciones en la materia. De modo que, si lo hizo, fue de forma voluntaria.
Las normas a las que hacen referencia se conocen en Estados Unidos como “Common Rule”, una serie de códigos éticos que sigue la comunidad científica cuando se realizan experimentos de este tipo. Códigos adoptados a raíz del no menos famoso y polémico experimento de Milgram en 1963.
¿Se tomaron las medidas adecuadas?
Las previsiones de la “Common Rule”, que a nivel europeo tendría su equivalencia en la ya citada Declaración de Helsinki, podrían resumirse en: 1) que un comité de ética revise y apruebe por adelantado el estudio, 2) que se minimicen los riesgos de los participantes, 3) que esos riesgos sean razonables respecto a los supuestos beneficios y 4) que exista consentimiento informado por parte de los que participan.
Facebook dice que al ser una entidad privada no tenía que pasar por dicho comité de ética. La universidad de Cornell añade que, como ellos simplemente trabajaron sobre unos datos que Facebook ya tenía, se trata de una excepción a la necesidad de todo el proceso legal (aunque esa afirmación es cuestionable). Finalmente, la editora de la revista que publicó el artículo afirma que, como Facebook no es una entidad gubernamental, no tenía necesidad de cumplir con estos requisitos (aunque la revista no suele publicar artículos que no hayan pasado previamente ese proceso).
A pesar de todo, parece que el estudio sí pasó por el comité de ética, que dio su visto bueno porque, en teoría, los datos los había recogido Facebook previamente, mientras que las universidades se limitaban a analizarlos y no tomaban parte en su recolección.
¿Los usuarios dieron su consentimiento?
El otro gran requisito en este tipo de estudios es que exista consentimiento informado por parte de los participantes. Según Facebook, lo hubo: el proporcionado al darse de alta en el servicio, concretamente el que se especifica en su Política de Uso de Datos.
A ese consentimiento, sin embargo, se le pueden poner algunas pegas. Para empezar, ese texto supera en castellano las 10.000 palabras. Basar la idea de un consentimiento informado (que no es un simple “Aceptar”, según los artículos 25 y siguientes de la Declaración de Helsinki) en dos de esas diez mil palabras - “la investigación” - quizá resulte algo atrevido.
Pero aún hay más. Esas dos palabras, o el término “research” en inglés, no se añadieron a la Política de Uso de Datos de Facebook hasta mayo de 2012, es decir, 4 meses después de que se realizara el experimento. Por tanto, el consentimiento nunca pudo basarse en esos términos, que ya de por sí son poco concretos, sino en algo todavía más genérico.
Además, este tipo de estudios exigen que el participante pueda retirar en cualquier momento su consentimiento, pero ¿cómo puedes retirarlo si no sabes que lo has dado? Por no decir que retirarlo implica darse de baja del servicio, porque Facebook se basa en el visto bueno que el usuario concede al registrarse.
A pesar de todo, hay quien argumenta que el estudio podría no requerir este consentimiento informado, dado que implica un riesgo mínimo para el sujeto, que Facebook modifica constantemente su algoritmo y que la manipulación fue relativamente inocua. El tema, por lo tanto, es más complejo de lo que parece.
¿Podría ocurrir en otros servicios?
Ahora todas las empresas medirán muy bien sus actos antes de caer en algo parecido, pero ¿podrían en teoría hacer lo mismo otros servicios que emplean algoritmos para filtrar el contenido de los usuarios? Entre servicios como Linkedin, Twitter, Spotify o Google+, que también utilizan este tipo de 'software', sólo Linkedin hace referencia al término “research” (y en un ámbito mucho más específico).
El resto simplemente menciona que analizarán tu uso del servicio para la mejora del mismo.
¿Sueñan los algoritmos con 'feeds' organizados de noticias?
De todo este embrollo pueden hacerse varias lecturas:
El estudio en sí resulta muy interesante, y sus posibles potenciales aplicaciones algo preocupantes. Sin embargo, sus resultados tampoco son tan concluyentes.
La transparencia de Facebook en este caso ha dejado mucho que desear, por el proceso en general y por el asunto del consentimiento en particular.
El abuso por parte de los servicios de lo que consentimos al tuntún en sus términos y condiciones alcanza un nuevo nivel de exceso.
Facebook, como otras grandes corporaciones, sigue actuando como si determinadas normas no fueran de aplicación para ellas dada su magnitud, ahora en el ámbito académico.
Como acertadamente apuntaba Jorge Campanillas, en el fondo todo esto surge de la alteración (no indicada) de un algoritmo o proceso automatizado, cuyas consecuencias para nosotros, los usuarios, hace tiempo que dejaron de ser ficción.
Finalmente, no hay que olvidar uno de los motivos por los que Facebook inició el estudio: comprobar si el pesimismo de tus amigos en la red social podría hacer que la abandones.
Facebook tampoco quiere quedarse solo.
-------------------------------------------------
Las imágenes de este reportaje son obra de dkalo, opensourceway, birgerking y Jorge Morell
Sobre este blog
Un blog sobre leyes y tecnología por y para iLetrados digitales. Derecho para todos los públicos de la mano de Jorge Campanillas, Marina Franganillo, Miriam García, David Maeztu, Jorge Morell, Andy Ramos, Ruth Sala, Alejandro Sánchez, Alejandro Touriño y Roberto Yanguas.