Un grupo de 350 ejecutivos de las principales empresas desarrolladoras de inteligencia artificial, académicos e investigadores expertos en esta tecnología han firmado un nuevo manifiesto alertando de “los riesgos más graves de la IA avanzada”. En un escueto comunicado de 27 palabras, los firmantes declaran que esta tecnología representa un “peligro de extinción” para la humanidad que debe considerarse como las pandemias o la bomba nuclear.
“Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto a otros riesgos a escala social como las pandemias y la guerra nuclear”, enuncia la petición completa. Entre los firmantes se encuentra toda la plana mayor de OpenAI, la compañía que ha desarrollado ChatGPT y que ahora presiona a la comunidad internacional para que regulen esta tecnología. Entre los impulsores de esta carta está Sam Altman, su CEO, que estuvo la semana pasada en Europa y se citó con Pedro Sánchez, y 20 de sus ejecutivos e investigadores.
En la lista de firmantes se encuentra también Kevin Scott, jefe de Tecnología de Microsoft, y o Demis Hassabis, líder de Google DeepMind (el departamento de investigación en inteligencia artificial de la multinacional). Google es la empresa que más rúbricas aporta al manifiesto, con 38 ejecutivos, investigadores o profesores de universidad relacionados con la empresa. También hay representantes de otras desarrolladoras más pequeñas como Anthropic, Stability AI o Inflection AI.
Se trata de la segunda acción de este tipo en cuestión de dos meses que se lleva a cabo a nivel internacional. En la anterior, publicada a finales de marzo, cientos de empresarios y académicos se expresaron en términos parecidos sobre los peligros que representa esta tecnología si no se la regula pronto. En el texto que sirve de introducción a la petición de equiparar la IA a la guerra nuclear, los firmantes de la misiva publicada hoy reconocen que “periodistas, responsables políticos y el público en general debaten cada vez más sobre un amplio espectro de riesgos importantes y urgentes de la IA”, pero que aún así a su juicio “puede resultar difícil expresar preocupación por algunos de los riesgos más graves de la IA avanzada”.
Entre los 350 firmantes de este manifiesto hay dos españoles: Helena Matute, catedrática de Psicología de la Universidad de Deusto; y Ramon Carbó-Dorca, químico teórico y catedrático emérito de la Universidad de Girona. “Creo que es muy importante que la IA no siga creciendo sin control, que nuestros dirigentes hagan algo, y que todos tomemos conciencia de que es importante, es un arma muy peligrosa”, ha explicado Matute en declaraciones a elDiario.es. “Debemos ponernos de acuerdo a nivel global en unos mínimos de seguridad, que hoy por hoy no garantiza nadie, y que no se van a lograr de un día para otro. Hay que prevenir. Muchas cosas pueden ir mal. Hay que actuar, como se ha actuado con la bomba atómica, la clonación humana, y otras tecnologías que implican grandes riesgos”, solicita.
La petición de regulación para la inteligencia artificial por parte de estos empresarios y académicos coincide con una investigación a gran escala en la UE por las posibles violaciones de privacidad que ha podido llevar a cabo OpenAI con ChatGPT. Los reguladores de protección de datos del continente sospechan que se ha usado información personal de los europeos sin su consentimiento para entrenar al sistema.
En su gira europea de la pasada semana, Altman insinuó que si no está de acuerdo con el resultado de la investigación y con el contenido del Reglamento de la IA que ultima Bruselas, podría ordenar la retirada de ChatGPT de la UE. Google ha hecho lo propio con Bard, su sistema análogo, que ha sido desplegado en 180 países pero no en Europa.