¿Es el enemigo? ¿Podrían parar la guerra un momento?

Director del CiTIUS-Centro Singular de Investigación en Tecnologías Inteligentes de la Universidad de Santiago de Compostela —

0

Quienes tenemos al menos medio siglo de vida recordamos a Gila y su memorable conversación telefónica desde la trinchera con el enemigo. El adorable Gila les pide que paren la guerra al menos una hora, porque se les ha atascado el sargento en el cañón mientras lo inspeccionaba. 

La moratoria de seis meses en el desarrollo de la inteligencia artificial que se solicita en una carta abierta firmada por bastantes miles de personas, entre ellas un buen número de empresarios y directivos de empresas y muy notables científicos del campo, rescató de mi memoria a Gila. No porque el tema que plantean sea de risa, ni muchísimo menos, sino porque pienso que pedir ese medio año de paro tecnológico es un pensamiento ilusorio. 

He leído con detenimiento el documento que firmaron personalidades como Elon Musk o Yoshua Bengio, Premio Turing en 2018. Suscribo una parte importante del mismo. Aquella que, por resumirlo, apela a la necesidad de desarrollar y aplicar una inteligencia artificial fiable y sostenible. Sin embargo, por cómo se dice y porque a algunos medios de comunicación les ha interesado presentarla así, lo que ha trascendido es sobre todo la preocupación de que la IA pueda escaparse a nuestro control, generando sus propios propósitos y actuando en consecuencia, siendo nosotros, sus creadores, los daños colaterales de ello. Se está generando así una alarma tan innecesaria como injustificada. Una alarma que nos distrae de lo que realmente es importante, como luego comentaré, y que se propaga como el fuego en la yesca entre una opinión pública que sobre estos temas apenas tiene opinión, porque no está bien informada ni formada al respecto. 

Alarmar con la posibilidad de que la IA se nos vaya de las manos y nos someta, como nosotros hacemos, por cierto, con todo ser vivo en la tierra, es como hacerlo con la posibilidad de que nos invadan alienígenas cabezudos, de color verde y con antenas. Las amenazas, estas sí muy reales, son otras, y están ya en nuestro planeta, no fuera de él. Hablo de las guerras y la amenaza nuclear, el cambio climático, la actual y las futuras pandemias derivadas de la alteración del medioambiente o del diseño humano, la pobreza y el hambre… Inventarnos problemas, como el de una superinteligencia que pueda destruirnos, por mucho que exciten nuestra imaginación, es como preocuparnos por planificar el modo en que acomodaremos a los extraterrestres que nos visiten en nuestro ya superpoblado planeta. 

Pero aún más grave que fomentar una alarma innecesaria, me parece el hecho de que esto nos distraiga de lo que realmente sí conviene hacer y cuanto antes: definir un marco legal global de desarrollo y de aplicación de la IA; hacer inversiones públicas que eviten dejar solo en manos de las empresas el futuro de la IA y, por tanto, el de una parte importante de nuestro futuro; educar para una sociedad de la inteligencia, la natural y la artificial, que ya es una realidad; y un largo etcétera de temas que o no se están abordando, o no con suficiente empeño y diligencia. 

Es bueno que algunas personas se ocupen de pensar con rigor científico sobre un hipotético futuro, aún muy lejano, en el que podría lograrse una IA de propósito general, incluso con una inteligencia comparable o superior a la nuestra, pero ponernos todos a opinar al respecto, muchas veces sin criterio ni fundamento, es una solemne tontería. 

Las tecnologías inteligentes están transformando una parte importante de nuestras vidas, de la economía, del empleo… Sin duda serán, y aquí sí que sin que tengamos que esperar mucho, las tecnologías con mayor impacto de transformación socioeconómica de cuantas hemos ido desarrollando a lo largo del tiempo. Pero más que parar para tener un respiro y sentarnos en el sillón de pensar, lo que debemos hacer es abordar seriamente, y cuanto antes, los temas que ya tenemos encima, como la proliferación y sofisticación de las armas autónomas, el aumento del desempleo tecnológico debido a la automatización inteligente, las crecientes brechas socioeconómicas entre ganadores y perdedores de esta carrera tecnológica o la vigilancia intensiva de la gente y, a partir de ahí, su control. 

Pensar que un paro tecnológico de seis meses es posible o que, de serlo, sería la solución a los problemas reales o potenciales con los que tenemos que lidiar, es pensamiento ilusorio, insisto. Entre otras razones, porque no estamos hablando en general de planes gubernamentales, sino de proyectos privados. Es más, China, cuyo gobierno está haciendo la mayor inversión pública en IA del planeta, no hará caso alguno a las peticiones de moratoria que se puedan plantear desde el ámbito científico o social internacional. Todos lo sabemos. Por su parte, son las grandes corporaciones tecnológicas, sea con alharacas o de modo silente, las que están marcando el estado del arte en IA, su avance científico y su desarrollo tecnológico, y lo hacen por decisiones estratégicas y de mercado, con el permiso de los gobiernos del mundo, eso sí, que están renunciando en general a la inversión que requiere mantener el liderazgo en la investigación. Un ahorro que nos va a salir muy caro. 

Incluso en el hipotético caso de que, mágicamente, se lograse el parón solicitado en el desarrollo y aplicación de la IA ¿quién tendría que hacer qué en seis meses? Costaría bastante más de seis meses simplemente tener respuesta a esta pregunta, así que mi consejo es que pensemos seriamente en reclamar a nuestros gobiernos el firme compromiso y la consecuente acción por desarrollar una IA fiable y sostenible, y que, además, lo sea por el bien común, aunque ya sabemos que en esto de lo común no entran todos, y que en general están siempre los mismos. 

“No sé si habrá balas para tantos. Bueno, nosotros las disparamos y ustedes se las reparten”, decía el gran Gila en un momento de su conversación con el enemigo. Quizás si la carta abierta sobre la IA consigue parar a los gigantes tecnológicos durante un semestre, podamos después enviarles nuestras conclusiones y recomendaciones y que ya ellos se las repartan. 

Los mayores no deberíamos olvidar a Gila y los jóvenes deberían estudiarlo en los colegios y en las universidades.