RED

La portada de mañana
Acceder
El jefe de la Casa Real incentiva un nuevo perfil político de Felipe VI
Así queda el paquete fiscal: impuesto a la banca y prórroga a las energéticas
OPINIÓN | 'Siria ha dado a Netanyahu su imagen de victoria', por Aluf Benn

Una treintena de países se plantan ante el avance de los 'robots asesinos'

Samuel Martínez

12 de noviembre de 2020 22:02 h

0

“Un robot no hará daño a la Humanidad o, por inacción, permitirá que la Humanidad sufra algún daño”. Es la 'ley cero' de la robótica que el escritor Isaac Asimov incluyó en su libro Robots e Imperio. El volumen salió publicado en 1985 y, por aquel entonces, el gran público lo percibió como lo que era, ciencia ficción. Sin embargo, en 2020 los 'robots asesinos', es decir, aquellos que pueden llegar a “hacer daño a la humanidad”, ya preocupan a las instituciones internacionales y se proyectan como uno de los grandes problemas morales del futuro, toda vez que países como EEUU, Rusia o Corea del Norte avanzan de forma incansable en la construcción de armas autónomas en base a la inteligencia artificial. En la otra orilla se encuentran otros como Argentina, Chile, Austria o Brasil, que consideran prioritario frenar el avance de un armamento que tendrá, según la ONG Human Right Watch, “la capacidad de detectar, seleccionar y atacar objetivos, sin ningún tipo de intervención humana”. Ese es el futuro y, a juzgar por las prisas de la ONU y el Parlamento Europeo para incentivar su regulación, es más próximo de lo que cabría esperar. 

El control humano de las máquinas es el quid de la cuestión y el punto de conflicto entre los países que apuestan por una prohibición sin ambages, los que la rechazan y los que, como España, están entre medio. Antonio Guterres, secretario general de la ONU, declaró ante los líderes mundiales en la Asamblea General de las Naciones Unidas que es “moralmente repugnante y políticamente despreciable” que exista la posibilidad de que las máquinas tengan en poder de arrebatar la vida a una persona. En esa línea, el Parlamento Europeo aprobó en 2018 —con 566 votos a favor, 47 en contra y 76 abstenciones— una resolución para limitar el uso, la producción y el desarrollo de cualquier arma capaz de matar sin necesidad de control humano. Para todos los detractores de los 'robots asesinos' es importante tener en cuenta la dimensión moral del asunto. ¿Quién va a tomar la responsabilidad de la muerte de civiles a manos de una máquina? Esa es una de las preguntas que se lanzan en la 'Campaign to Stop Killer Robots' (Campaña para frenar a los robots asesinos), una alianza de varios actores internacionales que luchan por el cese en la fabricación de 'robots asesinos'. Por otro lado, insisten en el papel de la misericordia en las guerras. “Si un arma está programada para matar a un soldado según una serie de inputs… ¿Qué pasa si ese soldado se rinde?”. Mientras que el ser humano es capaz de mostrar compasión, una máquina seguiría la orden para la que ha sido programada. 

Por eso la mayoría de los estados que participan en el Convenio sobre Ciertas Armas Convencionales (CCW por sus siglas en inglés) coinciden en que es necesaria una regulación que asegure que siempre habrá un humano al mando. Entre esos países está España que, si bien no se encuentra en el grupo de los 30 que piden directamente la prohibición de los 'robots asesinos', sí que advierte de la necesidad de que la toma de decisiones venga siempre de la mano de las personas, con sus sentimientos, sus reflejos y su capacidad de adaptación al medio y al cambio de las circunstancias. No obstante, los contrarios a la prohibición —sobre todo países como Estados Unidos, Rusia, Corea del Norte o Francia, muy interesados en la inversión en inteligencia artificial para armamento (según Human Right Watch)— también tienen sus argumentos morales. Fundamentalmente, arguyen que una guerra donde las armas fueran autónomas evitaría que un gran número de soldados muriera en el campo de batalla, habida cuenta de que podrían ser los propios robots los que se enfrentasen unos con otros.

Hackeo y problemas con el derecho internacional

“El derecho internacional se creó para las personas, no para las máquinas”. Son palabras de Bonnie Docherty, investigadora sobre armas en Human Right Watch. La ONG es uno de los actores más concienciados con la prohibición de las armas autónomas y por eso exige “la adopción de un nuevo tratado internacional”, puesto que se trata del único modo eficaz de “impedir que se deleguen a las máquinas decisiones de vida o muerte”. Por otra parte, la organización también apunta al problema del hackeo, que, según explicita en varios informes, podría aparecer con relativa facilidad, toda vez que “pequeñas modificaciones en las entradas de datos pueden engañar [a las máquinas] de una forma que ningún humano se dejaría engañar”. Todo ello son cuestiones que han saltado de las páginas de los libros y se han colado en la actividad política internacional. Muchos de los países con capacidad investigadora y armamentística se niegan a que la comunidad ponga palos en las ruedas al avance tecnológico, mientras que los demás ven con recelo un horizonte con máquinas con capacidad para razonar y decidir. Se trata, a fin de cuentas, de un dilema moral...  Aunque con una implicación absolutamente práctica: quién (o qué) tiene la legitimidad de matar.