Las mujeres que lograron la prohibición de las minas antipersonas alertan ahora contra los robots de guerra
Parece sacado de la ciencia ficción: robots que libran batallas interminables, algoritmos que escogen a sus víctimas y máquinas de guerra que utilizan tecnología de reconocimiento facial para identificar a su objetivo y eliminarlo antes de que tenga tiempo ni para decir “Convención de Ginebra”.
No es un guión cinematográfico sino la funesta representación de unas guerras del futuro que parecen cada vez más posibles. La expresión robots asesinos comprende toda una gama de avances tecnológicos que provocan excitación entre los generales pero pavor entre los defensores de la paz, aterrorizados por las consecuencias éticas de una guerra librada mediante representantes digitales.
Armadas con nada más que un premio Nobel, años de conocimientos técnicos y convicción, dos mujeres lideran el movimiento contra los letales robots asesinos: exigen su prohibición. Y no es la primera vez que se enfrentan a un reto similar.
Jody Williams ganó el Premio Nobel por liderar la larga iniciativa mundial para prohibir las minas terrestres antipersonas, y Mary Wareham fue una reconocida activista en esta campaña. “Estábamos allí, en la ceremonia de entrega del Premio Nobel de la Paz, y le dije a Jody: '¡Así es como se termina una carrera, no como se empieza! ¿Y ahora qué hacemos?’”, recuerda Wareham.
La respuesta la han encontrado en la lucha contra los Sistemas de Armas Autónomos Letales. Wareham y Williams creen que esta pelea será mucho más difícil. “En comparación, las minas terrestres eran una chorrada”, declara Williams. Los fabricantes de armas basadas en la inteligencia artificial podrían ganar miles de millones de dólares.
La inteligencia artificial ya se extiende veloz en el sector agrícola y sanitario, así como en la policía y en el trabajo social. Según los expertos en la materia, el siguiente sector que la adoptará será el militar. ¿Qué impedirá entonces a un ejército desplegar drones capaces de buscar, identificar y eliminar a todos los habitantes de entre 18 y 50 años de una aldea? ¿O lanzar un dron asesino con la misión de identificar y asesinar a un jefe de estado?
Y la empresa armamentística no quiere quedarse atrás. En silencio pero de manera agresiva, el sector militar financia algunas de las pruebas más punteras.
Las ventajas, dicen algunos, son claras. Un robot asesino no se cansa como un soldado humano, puede quedarse durante meses en el campo de batalla, no se enfada ni busca venganza y nunca desobedece a un superior. La imperfección de los seres humanos queda fuera de la ecuación. El responsable de la decisión de matar es un algoritmo.
Sin embargo, sí hay militares preocupados por esta posibilidad. Según Paul Scharre, ex comando del ejército estadounidense y autor de la primera declaración política sobre robots asesinos del Pentágono, no son solo “preocupaciones legales y éticas sobre la autonomía letal, sino también prácticas”: “¿Cómo se controla un arma autónoma? ¿Qué pasa si hay un fallo en el sistema o si alguien la hackea?”.
En opinión de Jody Williams, las máquinas representan la definición más literal de la expresión matar a sangre fría. En una Tercera Guerra Mundial con robots asesinos no habría siquiera espacio para los pocos gestos de humanidad que afloran incluso en las guerras. Ningún conflicto del siglo XXI tendría tregua navideña en el frente occidental. “Estamos hablando de hombres que se excitan con las armas nuevas”, comenta Williams. “Y si las están desarrollando es sencillamente porque pueden; lo están haciendo porque quieren ver qué es lo que son capaces de hacer”, apunta.
El estado de Israel tiene algunas de las máquinas más avanzadas, como un robot terrestre armado que ya patrulló la frontera de Gaza y la Arpía, un misil que navega por el cielo hasta que encuentra su objetivo: radares enemigos. Y no existe ninguna barrera técnica que impida a los ingenieros desarrollar armas similares que tengan como finalidad atacar a las personas.
El ejército de Estados Unidos está experimentando con enjambres de drones en los valles del centro de California, Rusia ya ha dicho que quiere formar un batallón entero con robots asesinos, y nadie sabe qué trama China. Ninguna ley regula la carrera armamentística de la inteligencia artificial. Hasta ahora, el escenario es de plena libertad para todos los países.
Son los científicos quienes están dando la voz de alarma: más de 250 instituciones académicas y de investigación, así como 3.000 expertos en inteligencia artificial piden la prohibición de los robots asesinos. Además de la petición, los activistas creen que para detener esta tecnología lo mejor será la aburrida y poco heroica firma de un tratado internacional. Esa es la estrategia de la Campaña para detener a los robots asesinos. Apoyada por más de 100 organizaciones en 54 países, se ha fijado el objetivo de conseguir un acuerdo en 2021.
Williams se considera idealista pero no ingenua. Lleva enfrentándose al complejo militar-industrial desde sus días de manifestaciones contra la guerra de Vietnam. “Cualquier cosa es inevitable si no se hace nada para detenerla”, comenta sobre los escépticos que consideraban inviable prohibir las minas antipersonas. “Las personas que nos insistieron en que 'es inevitable, es inevitable' lo hacían para desempoderarnos”, recuerda.
En aquella campaña, Williams y otros activistas comenzaron presionando a las Naciones Unidas para que se llegara a un acuerdo. Cuando vieron que no lograban avanzar, comenzaron a dirigirse a los países, uno por uno, hasta lograr la firma del acuerdo histórico de Ottawa en 1997, cuando más de 120 países se comprometieron a erradicar las minas terrestres antipersonas.
La actual Campaña para Detener a los Robots Asesinos (CSKR, por sus siglas en inglés) está siguiendo un camino similar. La ONU organizó varias rondas de conversaciones en su sede de Ginebra (la última sesión fue a finales de marzo), pero la CSKR perdió la fe en esa vía y ahora está centrándose en convencer a países de Occidente por separado.
Williams y Wareham esperan que Alemania tome la delantera. El país entró a principios de 2019 en el Consejo de Seguridad de la ONU y al ministro alemán de Asuntos Exteriores, Heiko Maas, le preocupa el tema. Hace poco llamó a los robots asesinos “un ataque contra la humanidad”.
Sin hacerlo público, Berlín se ha puesto en contacto con otros Estados para avanzar más. Algunos políticos alemanes reconocen la oportunidad de ser el primer país que prohíba los robots asesinos para que otros Estados europeos sigan el ejemplo. Pero Alemania también se ha mostrado poco clara con el tema en otras ocasiones, especialmente en su discurso en la ONU.
Con la idea de centrar la atención sobre Alemania, los miembros de la CSKR se reunieron en marzo en Berlín en busca del apoyo de la opinión pública. Junto a un robot amigable, la mascota de la organización, Williams pidió a la multitud que la escuchaba que se pusieran en contacto con sus representantes políticos y pasaran la palabra. “La gente se asusta cuando escucha la palabra activismo”, comenzó Williams. “Pero lo único que significa es actuar”, sentenció.
Traducida por Francisco de Zárate