¿Qué es lo peor que te puede pasar cuando miles de cámaras te vigilan cada día?

En 2014, Facebook presentó un software de segmentación detallada de “Datos demográficos, Comportamientos e Intereses” que haría llorar de gusto a la NSA. La herramienta es capaz de discriminar por etnia, orientación sexual, tendencia política, clase económica, situación familiar, orientación culinaria y otros aspectos de tu vida, como si tienes un iPhone o conduces un Ford.

El programa usa los identificadores que el propio usuario introduce voluntaria y obedientemente en el sistema diseñado al efecto, pero también usa herramientas de análisis estadístico para deducir datos que el usuario no le ha dado. Sabe a quién vas a votar, qué tipo de cáncer tiene tu madre y que cambiarías a tu novio por un viaje a Tasmania. No hace falta que se lo digas tú porque la combinación de tus búsquedas, tus mensajes, tus likes, tus compras y tu entorno ya lo dicen todo.

Poco más tarde, la compañía presentó DeepFace, el software de reconocimiento facial más sofisticado del mundo. El grado de efectividad de DeepFace -cuántas veces acierta a reconocer una cara que está en su base de datos- es del 97%. Para ponerlo en contexto, el del FBI es solo del 85%.

Como complemento, Facebook tiene una aplicación llamada Photo Finder que usa el software de reconocimiento facial y un análisis de tus redes sociales para encontrarte en cualquier foto en la que aparezcas y etiquetarla con tu nombre, aunque la persona que la haya publicado no sepa quién eres.

De momento, Photo Finder solo permite al usuario encontrar personas no etiquetadas si están en su lista de contactos, pero el software puede encontrar a cualquiera, dentro de Facebook o fuera, sean amigos o no.

Un narrador omnisciente llamado Big Data

Sabiendo todo esto, es razonable afirmar que Facebook tiene una tecnología capaz de reconocer a cada uno de sus 1.500 millones de usuarios solo por su cara, y asociarlos con un archivo que ya les ha etiquetado de varias maneras diferentes por su software de segmentación detallada. Y todo esto sin contratar especialistas ni hacer un gran despliegue de medios, porque tiene el software apropiado y una base de datos que cruza fronteras físicas, étnicas, lingüísticas y legislativas. Para reconocerte por la calle y acceder a tu dossier, Facebook solo necesita una cámara y una conexión a sus servidores.

De momento, asegura su jefe, Facebook usa esos superpoderes para ayudar a sus anunciantes a hacer campañas mas personalizadas y efectivas. Pero la seguridad es un problema técnico, no un problema moral. Para empezar, si lo usara para otras cosas, no lo sabríamos. Lo que sí sabemos es que está legalmente obligado a dar acceso obligado al gobierno de los EEUU a todos sus servidores sin avisar a los usuarios, y que su base de datos es tan susceptible de ser hackeada como la de Yahoo.

Con el problema técnico despejado, debemos imaginar ese software y esa base de datos conectándose a la red de cámaras de vigilancia que pueblan nuestras ciudades, nuestros sistemas de transporte y nuestras carreteras. Esa máquina cuya base de datos alimentamos cada día de nuestra vida, aunque no tengamos Facebook, ni teléfono ni amigos, es el narrador omnisciente de The Night Of. Cuenta una historia usando muchos datos que son empíricamente ciertos, pero que no es necesariamente verdad.

La noche tiene mil ojos

En el inolvidable piloto de The Night Of, la impactante miniserie de HBO sobre las grietas del sistema de justicia norteamericano, un estudiante universitario de origen paquistaní llamado Nasir Khan coge prestado el taxi de su padre para ir a una fiesta. Nasir sale de su casa en Queens y cruza el puente de Queensboro hasta el Upper West Side donde se pierde y después se encuentra con una chica llamada Andrea, a la que lleva a las orillas del Hudson, bajo el puente de George Washington Bridge.

Después van a su casa y nosotros sabemos que algo se cuece porque le miramos con los miles de ojos que le siguen sin pestañear: cámaras de tráfico, de bancos, de establecimientos comerciales, gasolineras, de jardines privados, de colegios y hospitales.

Le vemos atravesar los peajes de Manhattan con su E-ZPass y el tunel de Midtown lleno de cámaras que registran cada matrícula y la contrastan en tiempo real con las bases de datos de la policía, el FBI y el departamento de inmigración. Lo vemos desde la cámara frontal de los coches patrulla con los que se cruza. Más adelante, a esos ojos se suman otros: los vecinos, los tenderos, los radares que dan cobertura a su teléfono móvil. Cuando el detective asignado a su caso le dice: “yo lo que veo es un buen chico pasando el peor día de su vida”, es la última vez que el sistema mira a Nasir Khan con ojos humanos.

Incluso su propio abogado, un litigante de bajos fondos interpretado por John Turturro, le quita el derecho a contar su propia historia. En el momento que el detective Box reconstruye sus movimientos de A a B sobre un mapa, empezamos a ver la historia que será la suya. No la que cuenta Naz sino la que cuentan los datos que parpadean a su alrededor.

Curiosamente Riz Ahmed, británico de padres paquistaníes y actor principal de la serie, publicó hace dos semanas un celebrado ensayo sobre su experiencia con el etiquetado automático: “De pequeños en los 80, cuando a mi hermano y a mí nos paraba un skinhead a la vuelta del cole y nos ponía un cuchillo en la garganta, la etiqueta era: negro. Diez años más tarde, era ”paki“ (...) La siguiente vez que me encontré arrinconado sin remedio, fue en una habitación sin ventanas del aeropuerto de Luton. Mi brazo estaba sujeto a la mesa por unas dolorosas esposas y mi cuello estaba sujeto a la pared por unos agentes de la inteligencia británica. Era después del 11S y la etiqueta era ”musulmán“.

Más adelante, una combinación de tres datos genera alarma entre la burocracia portuaria estadounidense: la raza de Ahmed, un viaje previo a Irán y Afganistán y un libro que lleva en su maleta; El fundamentalista reticente, de Mohsin Hamid.

Ya en La guerra en la era de las máquinas inteligentes (1992), Manuel De Landa advertía acerca de los sistemas que empezaba a crear la industria militar para higienizar conductas moralmente reprobables, generando máquinas autónomas pero cargadas de prejuicios.

En las dos décadas siguientes hemos visto cámaras que registran rasgos étnicos en los semáforos generando acción policial o drones que ejecutan ataques aéreos sobre objetivos seleccionados por un algoritmo. La ciudad con miles de ojos que nos vigilan desde sistemas de seguridad, públicos y privados, domésticos e extranjeros, burocráticos y comerciales, nos convierte a todos en sospechosos.

“Eres una categoría cuya cara habla antes de abrir la boca -dice Ahmed en su ensayo-, un significante antes que una persona”. Y el día que se tuerce tu suerte, como le ocurre a Nasir Khan, no tendrás memoria para defenderte de la historia que cuentan sobre ti.