A lo largo de esta semana tendrá lugar la reunión de expertos de la Convención sobre Prohibiciones o Restricciones del Empleo de Ciertas Armas Convencionales en Ginebra. En dicha reunión se abordaran los Sistemas de armas autónomas letales o armas robóticas con capacidad de disparar sin intervención humana en la toma de decisiones.
La industria y los centros de investigación robótica están trabajando en prototipos de robots con mayores capacidades autónomas, se especula que en unos 20 o 30 años existirán robots que una vez activados puedan seleccionar y atacar objetivos sin la intervención humana, los llamados “robots autónomos letales” o “robots asesinos”.
Estas nuevas armas con capacidad de decir por si mismas si disparan o no, si matan o no, están generando un intenso debate. En Ginebra el debate girará alrededor de cuatro temas, cuestiones técnicas, cuestiones éticas y sociológicas, cuestiones jurídicas del derecho internacional y derecho humanitario y aspectos operacionales y militares.
En las cuestiones técnicas se examinaran las funciones cada vez más autónomas de los sistemas técnicos, su complejidad y su autonomía, el estado de la investigación actual y las novedades previstas; la justificación militar de las funciones autónomas en los sistemas de armas así como la resiliencia a errores de programación, a errores de despliegue y la vulnerabilidad de dichas armas ante ataques cibernéticos. En esta sesión técnica se intentará entender mejor elementos conceptuales como el “control humano significativo”, la responsabilidad y previsibilidad de la autonomía en referencia al contexto y a las tareas de dichos sistemas, también se incluirá la cuestión de la responsabilidad jurídica en referencia a la delegación de autoridad y a la toma de decisiones (por ejemplo en caso de riesgo de accidente).
En lo referente a las cuestiones éticas y relativas a los derechos humanos, se abordará el impacto que dichas armas puedan tener sobre los derechos humanos, en particular sobre el derecho a la vida, el derecho a una muerte digna y el derecho a la protección de los seres humanos.
Los humanos bajo ciertas condiciones: calor, rabia, miedo, ira, rencor, deseo de venganza, etc. actuamos de la peor manera. Los robots no tienen esos sentimientos y por tanto evitan muertes innecesarias. Los robots no sienten la adrenalina, la privación de sueño, moral baja o fatiga. En situación de conflicto armado los humanos cometen vilezas como violar a mujeres, torturar, etc. los robots sino están programados para ello no causarían daños intencionadamente a la población.
Extrapolar este razonamiento conduce a que los robots actuando en la guerra pueden reducir las muertes ilegitimas o accidentales, producir menor destrucción y por tanto actuar mejor que los humanos, es decir los robots representarían una fuerza civilizadora.
Por otra parte las emociones son una salvaguardia, sin ellas se puede matar más fácilmente. Los robots no pueden tener sentido común, no pueden sentir compasión, lástima, no pueden tener intuición. Al igual que no puede usar trucos psicológicos como ganarse la confianza del adversario. Decidir sobre la vida o la muerte de las personas puede requerir visión de conjunto, de comprensión de intenciones, de previsión de acontecimientos, de intuición. Los robots no pueden prever las consecuencias de sus actos, los humanos sí. Los robots pueden abordar y evaluar situaciones de forma cuantitativa difícilmente cualitativa. Esta es una habilidad necesaria cuando se trata de evaluar sobre la vida o la muerte de las personas.
Lo mismo podemos decir sobre la capacidad de distinguir y evaluar ordenes licitas o ilícitas, o evaluar e interpretar un contexto en cálculo de valores.
El robot no sentirá empatía, no se identificará con las víctimas, por ello las guerras podrán ser más eficientes, que lo dudo, pero serán más inhumanas.
En el tema relativo al cumplimiento de derecho internacional humanitario se abordará el riesgo que puede suponer desplegar este tipo de armas para el respeto incondicional al DIH, concretamente abordaran problemas específicos en lo relativo al la secuencia ininterrumpida de responsabilidad y principios como el de distinción, proporcionalidad y las precauciones en los ataques
Lo que se cuestiona es, si es posible o no, que los algoritmos de programación de los robots incluyan el cumplimiento del Derecho Internacional, el Derecho Internacional Humanitario o la Convención de Ginebra. En concreto se debaten tres principios jurídicos esenciales.
La responsabilidad, un robot es evidente que no tiene capacidad legal, moral o de cualquiera otro tipo y, por lo tanto, no puede ser responsable de sus acciones. Si hay un error o un acto de crimen de guerra ¿quién será el responsable? ¿El programador informático? ¿El fabricante?, ¿El militar? ¿El político que autoriza el despliegue? ¿Y sí es usado por un agente privado no estatal?
El principio de proporcionalidad exige que, antes de atacar, se debe evaluar el daño que pueda causarse a la población civil con respecto a la ventaja militar obtenida con la acción. La proporcionalidad es propia del discernimiento humano y se basa en conceptos como el sentido común, actuar de buena fe o que la orden sea razonable; para determinar si una ataque ha sido proporcional es necesario examinar si la persona que ha tomado la decisión de atacar estaba razonablemente bien informada de la situación, de las circunstancias o si ha hecho un uso razonable de la información disponible. La cuestión estriba en determinar si los robots pueden ser programados para replicar procesos psicológicos en los juicios de valor humanos necesarios para evaluar la proporcionalidad de una decisión.
El principio de distinción entre combatientes y otros actores como insurgentes, civiles, niños, mujeres ancianos, etc. El robot no solamente tiene que ser capaz de distinguir si el objetivo es combatiente o no, sino que también tiene que hacer un balance de intenciones. En los conflictos actuales no es fácil identificar a los combatientes, ya que a menudo no llevan uniforme o insignias distintivas y suelen mezclarse con la población civil.
En el tramo final de la Convención, el debate se centrará en posibles elementos de acuerdo en relación con si hay que establecer unos reglamentos o restricciones sobre robots autónomos letales o si hay que establecer un código de conducta.