Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
La portada de mañana
Acceder
Aldama zarandea al PSOE a las puertas de su congreso más descafeinado
Corazonadas en la consulta: “Ves entrar a un paciente y sabes si está bien o mal”
OPINIÓN | Días de ruido y furia, por Enric González

The Guardian en español

Ya es demasiado tarde para prohibir los robots asesinos

Los robots asesinos llevan en el imaginario colectivo el mismo tiempo que los propios robots.

Philip Ball

Una respuesta a la petición de los expertos en robótica e inteligencia artificial de prohibir los “robots asesinos” –Sistemas Autónomos de Armas Letales (Laws, por sus siglas en inglés) en el lenguaje de los tratados internacionales– es la siguiente: ¿no lo deberíais haberlo pensado antes?

Personalidades como el consejero delegado de Tesla, Elon Musk, están entre los 116 especialistas que piden esa prohibición. “No tenemos mucho tiempo para actuar”, sostienen. “Una vez que se abra esta caja de Pandora, será difícil cerrarla”.

Pero se puede decir que estos sistemas ya están aquí, como el “vehículo aéreo de combate no tripulado” Taranis, desarrollado por BAE (British Aerospace) y otros. O el SGR-A1, un arma desarrollada por Samsung que apunta y dispara automáticamente a sus objetivos detectados mediante sensores e instalada ya en la frontera surcoreana. Además, se está trabajando en tanques autónomos, y el control humano de drones letales es una cuestión gradual.

Aun así, los robots asesinos han estado presentes en espíritu con nosotros tanto como los propios robots. Karel Čapek nos dio a conocer la palabra robot en su obra de 1920 RUR (Robots Universales Rossum), que en checo significa “peón”. Sus robots humanoides, fabricados por la empresa del mismo nombre para trabajos industriales, se rebelan y masacran a la raza humana. Lo han estado haciendo desde entonces, desde los Cybermen de la serie Doctor Who hasta Terminator. Pocas veces acaban bien las historias de robots.

Incluso es difícil pensar en los problemas planteados por Musk y sus cosignatarios sin un inminente apocalipsis robótico de fondo. Aunque el fin de la humanidad no está en riesgo, sabemos que en algún momento una de estas máquinas funcionará mal y habrá terribles consecuencias, como en el caso del robot policial de Omni Consumer Products en Robocop.

Podría parecer que tales referencias restan importancia a un tema serio y letal. Vale, es cierto que un Armagedón causado por robots no sea exactamente algo frívolo, pero estas historias, por su fuerte inspiración en temores humanos profundamente arraigados, son puro entretenimiento. Sin embargo, es muy fácil resolver un debate como este basándose en la polarización de buenas y malas tecnologías. Las películas de ciencia ficción fomentan esta polarización y la idea implícita de que mientras evitemos las malas tecnologías, todo irá bien.

Los problemas, tal y como reconocen sin ninguna duda los especialistas en Laws, son más complejos. Por un lado, afectan al problema más amplio y urgente de la ética robótica. Por otro, son problemas de la propia naturaleza de la guerra y su mercantilización.

¿Cómo hacemos sistemas tecnológicos autónomos seguros y éticos? Evitar el daño a humanos infligido por robots fue el problema que exploró Isaac Asimov en Yo, robot, una colección de pequeños relatos tan influyentes que las tres leyes de robótica de Asimov a veces se discuten como si tuviesen la fuerza de las leyes de Newton. La ironía es que las historias de Asimov trataban en su mayoría de cómo tales leyes bienintencionadas podrían verse superadas por las circunstancias.

En cualquier caso, los asuntos éticos no pueden formularse fácilmente como principios iguales para todos. El historiador Yuval Noah Harari ha indicado que los coches sin conductor necesitarán algunos principios sobre cómo actuar cuando se enfrenten a un posible, inevitable y peligroso choque: ¿a quién intenta salvar el robot? Quizá, sostiene Harari, se nos ofrezcan dos modelos: el Egoísta (que da prioridad al conductor) y el Altruista (que da preferencia a los otros).

Un informe de 2012 sobre robots asesinos de Human Rights Watch estudia los peligros de estos conceptos de ciencia ficción. “Distinguir entre un civil con miedo y un combatiente enemigo amenazante requiere que un soldado comprenda las intenciones tras las acciones humanas, algo que un robot no puede hacer”, indica el informe.

Además, y a diferencia de los humanos, “los robots no están limitados por las emociones y por la capacidad de compasión, que pueden ser un freno importante a la muerte de civiles”. Pero la primera afirmación es una declaración de fe: ¿no sería mejor una evaluación de un robot mediante la biométrica que la de un soldado asustado mediante su instinto? Respecto a lo segundo, uno piensa: claro, a veces. Otras veces los humanos en las guerras violan y masacran de forma indecente.

Esto no pretende poner en duda las reflexiones del informe sobre los robots soldados autónomos que yo, por una parte, comparto. Más bien nos devuelve a la cuestión clave, que no es sobre tecnología, sino sobre guerra.

Nuestros sentimientos sobre la ética de la guerra ya son arbitrarios. “El uso de armas totalmente autónomas plantea serias cuestiones sobre la rendición de cuentas, lo que debilitaría otra herramienta para la protección de civiles”, afirma el informe de Human Rights Watch. Y es un argumento válido, pero imposible de enmarcar en cualquier contexto ético congruente mientras las armas nucleares sigan siendo legales en el derecho internacional. Aparte hay un debate continuo sobre la guerra de drones, las tecnologías de mejora de soldados y Laws que no se puede simplificar en “el hombre contra la máquina”.

Esta cuestión de tecnologías militares automatizadas está vinculada estrechamente con la naturaleza cambiante de la guerra que, en una era de terrorismo e insurgencia, ya no tiene un comienzo o un final, campos de batalla ni ejércitos. Como indica el analista estadounidense en estrategia Anthony Cordesman: “Una de las lecciones de la guerra moderna es que la guerra ya no se puede llamar guerra”. Como quiera que abordemos este asunto, ya no va a parecerse a los desembarcos del Día D.

La guerra siempre ha utilizado la tecnología más avanzada posible y los “robots asesinos” no son algo diferente. La caja de Pandora se abrió con la fundición del acero, si no antes (y prácticamente nunca ha sido la mujer quien ha abierto la caja). Puedes estar seguro de que alguien se ha beneficiado de ello.

Intentemos frenar por todos los medios nuestros peores impulsos por convertir herramientas de uso civil en armas, pero decir a una empresa fabricante de armas que no puede hacer robots asesinos es como decir a los productores de refrescos que no pueden hacer limonada.

Traducido por Javier Biosca Azcoiti

Etiquetas
stats