Recibir una notificación, sacar el móvil del bolsillo y contestar. Es un sencillo gesto que ya hemos naturalizado y que, según desvelaron ejecutivos de Apple, realizamos unas 80 veces al día. Cada vez que desbloqueamos el teléfono e interactuamos, una empresa está luchando para que pasemos más tiempo en su aplicación, ya sea WhatsApp, Instagram o Twitter. El nuevo capital es la atención. Y eso es justo lo que pretende denunciar El dilema de las redes sociales, un documental recientemente estrenado en Netflix.
El largometraje de Jeff Orlowski cuenta con no pocas voces importantes de la industria tecnológica, y así se nos hace ver en los primeros minutos: extrabajadores de Google, Twitter, Pinterest, Instagram… Incluso uno de los cocreadores de la que probablemente sea una de las mayores banderas de la adicción en la Red: el botón del ‘like’ de Facebook. A todos ellos el realizador les lanza una pregunta: “¿Cuál es el problema?”. Acto seguido, tras el silencio de todos los directivos, aparece el rótulo mediante el que da comienzo el largometraje: “Un documental original de Netflix”.
El “capitalismo de vigilancia”, como lo llaman en el reportaje, se beneficia del seguimiento de grandes empresas tecnológicas cuyo modelo es asegurar que los anunciantes tengan éxito. Es un nuevo tipo de mercado dedicado a negociar con los datos de millones de personas para mantenerlas pegadas a las pantallas. Cuantos más minutos, más audiencia y, por tanto, más inversores interesados en esa marca. Y eso es justo lo que hace Netflix.
Como explican en Wired, una página especializada en tecnología, la mayoría de lo que se decide ver en Netflix está determinado por un complejo algoritmo que no solo tiene en cuenta qué ves, también qué viste hace un año, la hora del día o incluso si empezaste un programa pero lo abandonaste a los 10 minutos. La plataforma de streaming se alimenta de dos tipos de datos: explícitos, cuando el usuario señala que le ha gustado una serie, e implícitos, basados en las pautas de comportamiento. “No nos dijiste explícitamente 'Me gustó Unbreakable Kimmy Schmidt, simplemente te bebiste la serie y la viste en dos noches, así que lo entendemos de manera conductual. La mayoría de datos útiles son implícitos”, señala a Wired Todd Yellin, vicepresidente de innovación de productos de Netflix.
“Cada acción que uno realiza es vigilada y registrada. Exactamente qué imagen miras y cuánto tiempo la miras”, dice en el documental Jeff Seibert, exejecutivo de Twitter. Pero la red social del pájaro azul no es la única que practica estos métodos. De hecho, en el reportaje aparece mencionado un test A/B, normalmente empleado por desarrolladores para hacer experimentos entre dos variantes y cuál de ellas resulta más atractiva de cara al usuario. Y esto también ocurre con series como Narcos o Stranger Things, cuyas imágenes dentro de la app de la plataforma suelen ser cambiantes hasta que identifican la más atractiva para los espectadores.
En el documental hablan de cómo estos algoritmos explotan las vulnerabilidades de la psicología humana, pero lo hace a través de una plataforma que tampoco queda exenta de estas prácticas. Como si Amazon nos alertara sobre que debemos fomentar la compra en comercios de barrio y al mismo tiempo continuara vendiéndonos productos con ofertas rompedoras.
Además, no hace ni una sola referencia a uno de los escándalos más importantes de la última década: el de Cambridge Analytica. Facebook perdió 37.000 millones de dólares en un solo día por verse envuelto en acusaciones de robo de datos e interferencia política. El revuelo llegó hasta el Congreso y el Senado de EEUU, donde Mark Zuckerberg se encargó de dar testimonio. Entre otras cosas, este suceso provocó que entrara en vigor el Reglamento General de Protección de Datos de la Unión Europea (GDPR, en inglés).
El peligro de recibir solo la información que quieres
Otro de los aspectos en los que incide el documental es en cómo las fake news campan a sus anchas en redes sociales en general y en Facebook en particular. Jaron Lanier, informático y pionero de la realidad virtual, pone un ejemplo: “Imagina por un segundo que Wikipedia dice: ‘Vamos a dar a cada persona una definición diferente y nos pagarán por eso’. Wikipedia te espiará y calculará qué puede hacer para que esa persona cambie por algún interés comercial. Y luego cambiará la entrada. ¿Te lo imaginas?”.
Es precisamente lo que pasa en Facebook, YouTube o incluso Google, que varía el resultado de buscar términos como “cambio climático” según la localización. En redes sociales se despacha al gusto del navegante, lo cual genera microcosmos de personas con su propias realidades y sus propios hechos. Incluso si son mentira. “Con el tiempo tienes la falsa sensación de que todos coinciden contigo porque todas tus noticias piensan como tú”, dicen en el documental Roger McNamee, uno de los primeros inversores de Facebook. ¿Las consecuencias? La extrema polarización de la opinión pública y el florecimiento de teorías conspiratorias.
“Es fácil pensar que solo convencen a unos pocos estúpidos, pero el algoritmo es cada vez más inteligente. Hoy te convencen de que la tierra es plana, pero mañana te convencerán de otra falsedad”, observa Guillaume Chaslot, ex encargado de trabajar en las recomendaciones de YouTube. Es algo que hemos visto con los negacionistas del COVID-19, que evitan usar mascarillas y señalan a la telefonía 5G y a Bill Gates como responsables de la pandemia para implantar microchips a través de vacunas y así controlar las mentes de los ciudadanos.
Tomarse tiempo para contrastar la realidad se ha convertido en una práctica en peligro de extinción, y el formato del documental tampoco ayuda. Cuenta con una parte dramática con actores que representan una vergonzosa y exagerada historia familiar sobre la adicción a las redes sociales llena de clichés. En una de las situaciones planteadas, la madre les propone organizar una cena dejando los móviles en una caja que no se podrá abrir hasta pasada la hora. Sin embargo, la hija menor tarda menos de 10 minutos en levantarse y partirla con un martillo para comprobar sus notificaciones.
Introducir ficción en un documental que aspira a ser informativo no ayuda a la credibilidad. Habría sido más inteligente dejar al espectador sacar sus propias conclusiones, sobre todo para no acabar haciendo justo lo que critican de las grandes corporaciones tecnológicas: condicionar nuestra forma de pensar sobre un tema.