EEUU, China y la UE se comprometen a regular la IA y prevenir sus efectos más “catastróficos”

María Ramírez

Oxford (Reino Unido) —
1 de noviembre de 2023 14:00 h

0

Estados Unidos y China, los pioneros globales en el desarrollo de la inteligencia artificial en constante competición, se han unido por primera vez en una declaración conjunta con la Unión Europea, Reino Unido, India y otras potencias para “trabajar juntos” en esta tecnología de manera que sea “segura” y se atenga a unos mínimos de regulación. 

El Gobierno de Rishi Sunak publicó este miércoles la llamada declaración de Bletchley, el lugar en Inglaterra donde se celebra la cumbre de AI y donde Alan Turing inventó la primera máquina para descifrar códigos encriptados por Alemania en la Segunda Guerra Mundial. La firman 28 países presentes en la reunión para un compromiso genérico, pero que tiene el valor de ser el primero donde la delegación de Washington y de Pekín comparten mesa de negociación y llegan a un pacto por escrito. Entre los que rubrican el texto, están España y otros grandes países de la UE, India, Japón, Brasil y Corea. 

“Estamos decididos a trabajar juntos de manera inclusiva para asegurar una IA humano-céntrica, fiable y responsable que sea segura”, dice el texto. Los gobiernos anuncian que se seguirán reuniendo -ya tienen otras dos citas, en Francia y Corea- y se enfocarán en particular “en la amplia gama de riesgos que supone la IA”. 

“Existe un potencial para un daño serio, incluso catastrófico, deliberado o accidental, derivado de las capacidades más significativas de estos modelos de IA. Visto el ritmo rápido e incierto de cambio de la IA, y en el contexto de la aceleración de inversión en tecnología, afirmamos que profundizar en nuestro conocimiento de estos riesgos potenciales y las acciones para afrontarlas es especialmente urgente”, dice el texto. 

Aunque sólo la Unión Europea ha avanzado en una legislación amplia para regular y limitar la IA, los países participantes se comprometen a considerar normas que equilibren beneficios y riesgos, e insisten en la cooperación internacional para aplicar “principios comunes y códigos conducta”. 

La declaración se refiere, en particular, a la seguridad de los sistemas que son “inusualmente poderosos y potencialmente dañinos” respecto a los cuales los gobiernos tienen que comprobar la seguridad, por ejemplo a través de pruebas. También aseguran que serán transparentes “según lo apropiado del contexto” y tendrán planes para “medir, controlar y mitigar capacidades potencialmente peligrosas” y prevenir el “mal uso” o descontrol de estas tecnologías. 

Los ejércitos

Sin embargo, China no ha querido participar, de momento, en una declaración política más específica sobre el uso de la inteligencia artificial en los ejércitos presentada por Estados Unidos y firmada por otra treintena de países, la mayoría europeos, para controlar y compartir el desarrollo de armas con inteligencia artificial que ya está sucediendo. 

La vicepresidenta Kamala Harris anunció la firma de una declaración conjunta, en la que también está incluida España. “El uso militar de la inteligencia artificial debe ser ético, responsable y aumentar la seguridad internacional”, dice la declaración. “En particular, el uso de la inteligencia artificial en el conflicto armado debe respetar las obligaciones de los Estados según la legislación humanitaria internacional... El uso militar de las capacidades de la inteligencia artificial debe rendir cuentas, incluyendo ese uso durante las operaciones militares dentro una cadena humana de mando y control responsable. El enfoque basado en principios del uso militar de la IA debe incluir una consideración cuidadosa de los riesgos y beneficios, y debe también minimizar sesgos no intencionados y accidentes”.  

Estados Unidos impulsó esta declaración en febrero y ahora la suscriben la mayoría de los miembros de la UE, Reino Unido, Australia, Japón, Singapur y algunos países africanos como Marruecos, Liberia y Malawi. No están China, Rusia, India o Pakistán, que tienen los mayores ejércitos del mundo junto a Estados Unidos. 

El texto insiste en la importancia del control humano de las capacidades automáticas, el respeto al marco legal y los sistemas de seguridad que tienen que acompañar a cualquier desarrollo. “Los Estados deben aplicar salvaguardas apropiadas para mitigar los riesgos de errores en las capacidades militares de IA, como la habilidad para detectar y evitar consecuencias indeseadas y la habilidad para responder, por ejemplo retirando o desactivando sistemas desplegados cuando hayan demostrado un comportamiento no deseado”. 

En la actualidad, ya hay armas autónomas desplegadas en el campo de batalla, en particular en Ucrania, con el uso de drones para vigilancia, defensa y ataque. En muchos casos, se trata de drones comerciales. El Gobierno ucraniano denunció en septiembre que los drones que utiliza Rusia para sus ataques en Ucrania son de procedencia iraní pero tienen componentes fabricados en Europa.

China y Rusia, en particular, están desarrollando capacidades militares de inteligencia artificial y ninguno de los dos es parte de esta declaración política. Además, tampoco son parte de estos compromisos de momento los principales fabricantes de robótica que pueden vender armas autónomas, como señalan algunos expertos.

La regulación

La Unión Europea ya está negociando una propuesta para regular la inteligencia artificial y España, que preside este semestre el Consejo de la UE, aspira a cerrar un acuerdo para el reglamento en su turno. La regulación se podría empezar a aplicar en 2026. Estados Unidos sigue con una política más laxa para fomentar la innovación, aunque también promete aprobar nuevas leyes en los próximos meses.

La vicepresidenta Harris también anunció este miércoles la creación de un instituto público para la seguridad de la inteligencia artificial en el Departamento de Comercio de Estados Unidos y una guía de actuación para empresas y autoridades públicas, un paso menos estricto que la regulación, si bien preludio de nuevas leyes. La regulación consiste en la obligación de hacer pruebas para los sistemas de inteligencia artificial más avanzados y someterlos a la revisión del gobierno federal antes de su uso para evitar, por ejemplo, la producción de armas químicas o biológicas. Además, hay recomendaciones destinadas en particular a combatir los timos y la desinformación, como los límites en la producción de audio de manera automática que puede llevar a llamadas telefónicas engañosas y la inclusión de un aviso en las imágenes y vídeos producidos con inteligencia artificial.

“La historia nos ha enseñado que en ausencia de regulación y control gubernamental fuerte, algunas empresas de tecnología eligen priorizar el beneficio sobre el bienestar de sus clientes, la seguridad de nuestras comunidades y la estabilidad de nuestras democracias”, dijo Harris en un discurso en la embajada de Estados Unidos en Londres y antes de unirse a la cumbre en Bletchley Park. “Una manera importante de abordar estos retos, además de lo que ya hemos hecho hoy, es a través de legislación. Legislación que refuerce la seguridad de la inteligencia artificial sin parar la innovación”.

Sobre este supuesto dilema, Harris insistió en que no se trata de objetivos incompatibles: “Rechazamos la falsa elección entre proteger al público o promover la innovación. Podemos y debemos hacer las dos cosas. Y debemos hacerlas rápido”.