'El Evangelio': cómo utiliza Israel la inteligencia artificial para seleccionar objetivos en Gaza
El ejército israelí no ha ocultado la intensidad de sus bombardeos sobre la Franja de Gaza. En los primeros días de la ofensiva, el jefe de la fuerza aérea habló de ataques aéreos incesantes “las 24 horas del día”. Sus fuerzas solo atacaban objetivos militares, dijo, con un matiz: “No estamos buscando una precisión quirúrgica”.
Pero donde no se ha puesto mucha atención es en los métodos que las Fuerzas de Defensa de Israel (FDI) están desplegando para seleccionar sus objetivos en Gaza, ni en el papel que la inteligencia artificial (IA) está teniendo en esa campaña de bombardeos.
Ahora que Israel ha reanudado su ofensiva, tras un alto al fuego de siete días, aumenta la preocupación por el método de selección de objetivos empleado por las FDI. Según el Ministerio de Sanidad de la Franja (dirigido por Hamás), la guerra de Israel contra Hamás ha provocado hasta ahora la muerte de más de 15.500 personas en Gaza.
Las Fuerzas de Defensa de Israel llevan mucho tiempo labrándose una reputación de habilidad tecnológica, con afirmaciones audaces pero inverificables sobre el empleo de nuevas herramientas. Tras la guerra de mayo de 2021 en Gaza, que duró 11 días, los oficiales del ejército dijeron que Israel había librado su “primera guerra de IA” con computación avanzada y técnicas de aprendizaje automático.
La última guerra entre Israel y Hamás está siendo una oportunidad sin precedentes para que las FDI desplieguen estas herramientas en un teatro de operaciones mucho mayor. En particular, en la guerra actual se está desplegando lo que llaman El Evangelio, una plataforma de detección de objetivos basada en inteligencia artificial que ha acelerado de manera significativa la generación de objetivos posibles. Tanto es así que los oficiales lo comparan con una “fábrica”.
A partir de entrevistas con fuentes de inteligencia y de declaraciones poco difundidas de las FDI y de oficiales retirados, el periódico The Guardian ha conocido nuevos detalles sobre El Evangelio y su papel central en la guerra de Israel en Gaza. Este reportaje también se ha construido a partir de testimonios publicados por la revista digital palestino-israelí +972 Magazine y el medio en hebreo Local Call, dos publicaciones que entrevistaron a varios miembros y ex miembros de la inteligencia israelí que conocen El Evangelio.
Sus declaraciones permiten vislumbrar esta unidad secreta de la inteligencia militar israelí basada en IA que está siendo crucial en la respuesta israelí a la masacre perpetrada por Hamás en el sur de Israel el 7 de octubre.
El conocimiento que poco a poco se va formando sobre la manera en que el ejército de Israel usa la IA llega en un momento de preocupación creciente por el riesgo que supone para los civiles el despliegue, por parte de los ejércitos avanzados de todo el mundo, de complejos y opacos sistemas automatizados en los campos de batalla. “Otros Estados están mirando y aprendiendo”, dijo un antiguo oficial de seguridad de la Casa Blanca que conoce el uso de sistemas autónomos dentro del ejército estadounidense.
La guerra entre Israel y Hamás puede marcar un “momento importante si las FDI utilizan la IA de manera significativa como mecanismo de toma de decisiones con consecuencias de vida o muerte para los objetivos”, dicen.
De 50 objetivos al año a 100 al día
Las FDI anunciaron a principios de noviembre que su unidad de selección de objetivos había identificado a “más de 12.000” objetivos dentro de Gaza. “Trabajamos sin descanso con la meta de definir quién es el enemigo y qué es el enemigo: los operativos de Hamás no están protegidos por mucho que se escondan”, dijo un oficial sobre el proceso de generación de objetivos.
La unidad fue creada en 2019 dentro de la dirección de inteligencia de las FDI y sus operaciones son confidenciales. A pesar de ello, en un breve comunicado de las FDI se decía que en la guerra contra Hamás se estaba usando un sistema basado en IA y llamado Habsora (El Evangelio) para “generar objetivos a un ritmo veloz”.
Las FDI han afirmado que “la extracción veloz y automatizada de inteligencia” permite a El Evangelio recomendar objetivos a sus analistas “con la meta de que haya una coincidencia total entre la recomendación de la máquina y la identificación llevada a cabo por una persona”.
Muchas fuentes con conocimiento de los procesos de selección de objetivos de las FDI confirmaron a +972 y Local Call la existencia de El Evangelio. Dijeron que se había utilizado para generar recomendaciones automatizadas de ataque a objetivos como las residencias privadas de personas sospechosas de militar en Hamás o en la Yihad Islámica.
Según las fuentes, en los últimos años esta unidad de selección de objetivos ha ayudado a las FDI a crear una base de datos de entre 30.000 y 40.000 presuntos militantes. Dijeron que sistemas como El Evangelio habían desempeñado un papel fundamental en la redacción de listas con el nombre de personas susceptibles de ser asesinadas.
Aviv Kochavi, que hasta enero de 2023 fue jefe de las FDI, dijo que en la unidad de generación de objetivos había cientos de oficiales y soldados y que estaba “potenciada por las capacidades de la IA”. “Una máquina que produce cantidades enormes de datos con más eficacia que cualquier humano, y los traduce en objetivos para el ataque”, dijo durante una entrevista publicada antes de la guerra en Gaza.
Según Kochavi, en la guerra de 11 días que Israel libró contra Hamás en mayo de 2021 la máquina generó 100 objetivos cada 24 horas “una vez que se activó”. “Para ponerlo en perspectiva, antes generábamos 50 objetivos en Gaza por año; esta máquina ahora genera 100 objetivos cada día, de los que el 50% es atacado”.
No se sabe con exactitud qué tipo de datos se introducen en El Evangelio, pero los expertos afirman que los sistemas de IA para ayudar en la generación de objetivos suelen analizar conjuntos grandes de información y tener más de una fuente. Desde imágenes tomadas por drones, hasta comunicaciones interceptadas, datos de vigilancia, o la información de los movimientos y patrones de conducta en individuos y grandes grupos de personas.
La unidad de generación de objetivos se creó para resolver un problema crónico que aquejaba a las FDI en sus operaciones anteriores en Gaza: las fuerzas aéreas se quedaban una y otra vez sin objetivos que atacar.
Cada vez que comienza una nueva ofensiva, dijeron las fuentes, los altos cargos de Hamás desaparecen en los túneles. Según esas fuentes, con sistemas como El Evangelio las FDI pueden localizar y atacar a un grupo mucho mayor de operativos jóvenes.
De acuerdo con un oficial israelí que trabajó seleccionando objetivos en operaciones anteriores en Gaza, las FDI no solían apuntar contra las casas de los miembros más jóvenes de Hamás durante los bombardeos. En el conflicto actual ya no es así, dice, y las casas de los presuntos militantes de Hamás son bombardeadas independientemente de su rango. “Son muchas casas”, dijo el funcionario a +972/Local Call.
“Miembros de Hamás que en realidad no significan nada viven en casas así por toda Gaza, así que la casa es marcada, la bombardean y matan a todos los que están allí”.
“Puntuación” en función de la probabilidad de muertes civiles
En el breve comunicado que las FDI publicaron sobre su unidad de selección de objetivos, un alto cargo dijo que “permite ataques precisos contra infraestructuras asociadas a Hamás infligiendo un gran daño al enemigo y un daño mínimo a los no combatientes”.
En muchos artículos de medios israelíes se ha destacado la precisión de los ataques sugeridos por el “banco de objetivos de la IA”. El diario Yedioth Ahronoth publicó que la unidad “se asegura en la medida de lo posible de que no haya daños a civiles no implicados”.
Un ex alto rango del ejército israelí dice a The Guardian que las operaciones usan una evaluación “muy precisa” del número de civiles que evacúan un edificio poco antes de un ataque. “Usamos un algoritmo que estima cuántos civiles quedan; nos da un verde, un amarillo, o un rojo, igual que una señal de tráfico”.
Pero los expertos en IA y conflictos armados entrevistados por The Guardian expresaron sus dudas sobre la posibilidad de que los sistemas basados en IA redunden en una mayor precisión en la selección de objetivos que reduzca los daños a civiles.
Según un abogado que asesora a gobiernos sobre la IA y el cumplimiento del derecho humanitario, hay “pocas evidencias empíricas” para respaldar tales afirmaciones. Otras fuentes hablaron del impacto notorio que están teniendo los bombardeos actuales. “Fíjense en el paisaje físico de Gaza”, dijo Richard Moyes, investigador de Article 36, un grupo que lucha por reducir los daños que causan las armas. “Estamos viendo el aplanamiento generalizado de una zona urbana con armas explosivas pesadas; así que decir que se está aplicando una fuerza limitada y de precisión no es algo que confirmen los hechos”.
Según cifras publicadas en noviembre por las FDI, Israel atacó 15.000 objetivos en Gaza durante los primeros 35 días de guerra, una cifra considerablemente superior a la de anteriores operaciones militares en el densamente poblado territorio costero. En la guerra de 2014, que duró 51 días, las FDI atacaron un número de objetivos que osciló entre 5.000 y 6.000.
Muchas fuentes señalan a The Guardian y a +972/Local Call que las personas encargadas de analizar como posibles objetivos los domicilios particulares de operativos de Hamás o de la Yihad Islámica saben de antemano el número de civiles que pueden morir. Cada objetivo, dicen, tiene asociado un archivo con una puntuación por los daños colaterales en el que se estipula el número de civiles que probablemente mueran durante un ataque.
Según una fuente que hasta 2021 trabajó en la planificación de ataques para las FDI, “la decisión de atacar la toma el comandante de turno de la unidad”, con algunos de “gatillo más fácil que otros”. “Matamos una cantidad de civiles que yo pensaba que era desproporcionada”, dijo sobre algunas ocasiones en las que había habido “dudas sobre un objetivo”.
“En respuesta a la barbarie de los ataques de Hamás, las FDI operan para desmantelar la capacidad militar y administrativa de Hamás”, dijo un portavoz del ejército israelí. “En marcado contraste con los ataques intencionados de Hamás contra hombres, mujeres y niños israelíes, las FDI se atienen al derecho internacional y toman las precauciones factibles para mitigar el daño a civiles”.
Fábrica de asesinatos masivos
Personas con conocimiento del proceso mediante el cual se integraron los sistemas de IA en las operaciones de las FDI dijeron que la herramienta había acelerado de manera significativa el sistema de generación de objetivos.
“Los objetivos son preparados de manera automática y trabajamos siguiendo una lista”, dijo a +972/Local Call una fuente que antes trabajaba en la unidad de generación de objetivos. “En verdad es como una fábrica; trabajamos a toda velocidad y no hay tiempo para detenernos en profundidad sobre cada objetivo; la sensación es que vamos a ser medidos en función del número de objetivos que somos capaces de generar”.
Otra fuente dijo a +972/Local Call que El Evangelio había permitido a las FDI poner en marcha una “fabrica de asesinatos masivos” donde “lo importante es la cantidad y no la calidad”. Hay una persona que “revisa los objetivos antes de cada ataque”, dijo, “pero no puede detenerse mucho tiempo en cada uno de ellos”.
Para algunos especialistas en inteligencia artificial y derecho internacional humanitario, esta aceleración en la toma de decisiones es preocupante. La doctora Marta Bo, que en Estocolmo trabaja como investigadora del Instituto Internacional en Investigaciones para la Paz, dice que incluso cuando “hay humanos en el proceso” existe el peligro de desarrollar una “preferencia por lo automatizado”, así como una “dependencia excesiva en sistemas que terminan ejerciendo una influencia demasiado grande sobre decisiones humanas complejas”.
Según Moyes, de Article 36, cuando a un comandante le entregan una lista de objetivos generados por una computadora con un sistema como El Evangelio, “no tienen por qué saber con qué criterios se ha redactado esa lista y tampoco pueden preguntar por los objetivos sugeridos o cuestionarlos”.
“Existe el peligro de que los humanos empiecen a depender de estos sistemas y se conviertan en eslabones de un proceso mecanizado sin capacidad de medir bien el riesgo de daño a civiles”, dice el experto.
Traducción de Francisco de Zárate
41