100.000 falsos positivos por cada terrorista real: los algoritmos no pueden predecir atentados
En la película Minority Report, basada en un relato de 1956 de Philip K. Dick, Tom Cruise encarnaba a un jefe de la policía Precrimen de Washington. Gracias a las visiones de unos seres mitad humanos mitad aliens, él y sus compañeros eran capaces de capturar terroristas, ladrones y criminales justo antes de que cometieran delitos.
La cinta era benévola si la comparamos con nuestro presente. Hoy tenemos empresas como Cambridge Analytica analizando el perfil de millones de estadounidenses para que voten por Donald Trump con toneladas de datos basados en sus intereses y preocupaciones. Y a la vista está: los análisis predictivos de la población funcionaron. Por eso, casi un año después de las elecciones presidenciales en EEUU, ya cuentan con información de más de 230 millones de norteamericanos.
¿Podría un algoritmo identificar a los terroristas contenidos en esos 230 millones de personas? Es más: ¿sería capaz un programa informático de prevenir un atentado? La respuesta es que no. Y la explicación la ha publicado Timme Bisgaard, un investigador danés en la Universidad de Illinois (Chicago), en un estudio que fue aprobado el pasado 5 de agosto.
Bisgaard no duda de que en el futuro, las policías de Precrimen existan: “Tendremos que encontrar un balance entre el derecho a la seguridad y el derecho a las libertades individuales”, explica a eldiario.es. Su investigación analiza por qué el terrorismo no puede predecirse como una función matemática ni aun teniendo grandes pilas de datos sobre la población que compone la muestra.
Los algoritmos que ya “predicen” el terrorismo
En los últimos tiempos hemos podido ver a Mark Zuckerberg desarrollando un algoritmo para combatir el terrorismo que analiza imágenes, vídeos y textos antes de que se publiquen. También ha creado un grupo de 150 expertos “en antiterrorismo, antiguos fiscales, expolicías, analistas e ingenieros” para rastrear Facebook y buscar pistas de posibles terroristas.
No son los únicos: empresas como Palantir, IBM, Predata o Recorded Future han fabricado algoritmos similares que se basan en determinados factores como la posesión de armas, la utilización de palabras clave específicas, el visionado de ciertos vídeos en YouTube o el uso de unas redes sociales en detrimento de otras. Sin olvidar los números de teléfono asociados a cada uno de esos perfiles.
Por ejemplo, IBM ha desarrollado un software que promete separar refugiados reales de terroristas potenciales, integrantes de células yihadistas o individuos peligrosos. Lo hace a través de un algoritmo de clasificación que pone en común todas las variables mencionadas (y alguna más) con los datos que disponen los gobiernos sobre cada uno de sus ciudadanos.
Falsos positivos y falsos negativos
Bisgaard cuestiona los procesos tanto inductivos como deductivos que se dan a la hora de analizar datos en el marco de una posible investigación antiterrorista. Por un lado estaría la búsqueda de patrones en esos datos (inducción); y por otro, la búsqueda de conexiones entre sospechosos (deducción). La segunda sería la investigación propia que llevarían a cabo las distintas policías.
Bisgaard pone en duda el método inductivo que sirve de base para crear algoritmos analíticos para prevenir ataques terroristas. “Cualquier investigación algorítmica resultará en falsos negativos así como en falsos positivos”, continúa. Un dato curioso: las investigaciones realizadas para prevenir el terrorismo se han basado en otras previas basadas... en prevenir el fraude con tarjetas de crédito.
El danés considera que el terrorismo, como el suicidio, “es un evento de baja frecuencia y único”. En su investigación revela que no hay suficientes datos como para construir un modelo o para entrenar un modelo que prevea un atentado: “Será siempre un ajuste insuficiente o un ajuste excesivo”, dice. Es por eso que los métodos de análisis inductivos se encuentran con el problema de los falsos positivos y los falsos negativos.
Un falso positivo es una persona o un evento clasificado como terrorista a pesar de que sea inocente. Un falso negativo sería lo contrario: terroristas culpables y eventos terroristas que en un principio parecen normales. Por ejemplo, la explosión en el piso de Alcanar el pasado 17 de agosto sería un falso negativo. En las primeras horas se trató como una explosión de gas normal; después se convirtió en un nido de yihadistas.
Bisgaard determina que se dan “demasiados falsos positivos y demasiados falsos negativos porque el sistema es hipercompleto, se basa en muy pocos datos y cuesta demasiado”. En otras palabras: no puede ser fiable.
Un acierto entre 100.000 fallos
El autor explica a eldiario.es que los ataques del 11 de septiembre cambiaron el “estado constitucional por un estado militar antiterrorista preventivo, destinado a combatir y prevenir el terrorismo utilizando la gestión de riesgos, herramientas actuariales y estadísticas de monitorización de enemigos y ataques potenciales”.
Una de las muchas consecuencias de los ataques del 11-S fue PRISM, XKeyScore y la denuncia que, en junio de 2013, Edward Snowden realizó contra los dos programas de la NSA. “En el plano legal, todo el mundo es inocente hasta que se demuestre lo contrario. En el paradigma del riesgo, todo el mundo es un sospechoso hasta que se demuestre lo contrario. La carga de la prueba se encuentra en dos lugares diferentes, y esto es importante cuando se trata de utilizar algoritmos de clasificación binaria y la clasificación de falsos positivos frente a falsos negativos”, continúa Bisgaard.
Utilizando el ejemplo de la vigilancia llevada a cabo por la NSA con el programa PRISM y citando al columnista del Wall Street Journal, Christopher Mims, Bisgaard determina que buscar verdaderos positivos en grandes grupos de personas crea falsos positivos. “Los analistas podrían ser confrontados con 100.000 falsos positivos para cada terrorista real”, incluye Bisgaard.
Finalmente, el danés determina que “el problema con el análisis predictivo es que el método carece de un modelo explícitamente automatizado de cómo analizarse a sí mismo”. Los algoritmos no serían eficaces a la hora de determinar quién es un terrorista entre toneladas de información, y cuando lo hiciesen estarían acertando una de cada 100.000 veces.
Bisgaard concluye que “el uso de métodos predictivos para predecir el terrorismo es ineficaz, arriesgado e inapropiado, con potencialmente 100.000 falsos positivos para cada terrorista real que encuentra el algoritmo.” No se trata de encontrar una aguja en un pajar, sino de encontrar agujas que pinchen en grandes pilas de agujas inocuas.