Se consigue “el último invento que la humanidad jamás tendrá que realizar”, la superinteligencia (y no te imagines a un robot con cara de sádico como el de la foto porque el de verdad no va a tener forma humana). Uno de sus objetivos bien podría ser hacernos sonreír. Para hacerlo de la forma más eficaz posible, decide colocar electrodos en nuestros músculos faciales. Nuestras sonrisas son eternas, pero la idea no nos gusta demasiado. Decidimos desenchufar la máquina, pero ¿acaso tiene un botón de apagado? ¿Los neandertales pudieron detener la evolución humana? Si optamos por encerrarla en una lámpara, ¿no logrará el genio escaparse?
Con este ilustrativo ejemplo explicaba Nick Bostrom los futuros riesgos de la inteligencia artificial en una reciente conferencia TED. Director del Instituto para el Futuro de la Humanidad de la Universidad de Oxford, este filósofo y tecnólogo sueco se ha convertido en uno de los investigadores más famosos por sus pesimistas predicciones, y sus ideas han contagiado ya a otras personalidades del mundo de la tecnología.
Elon Musk quedó impactado tras leer 'Superintelligence', el libro en el que Bostrom ha resumido sus ideas, y advirtió por Twitter que la inteligencia artificial era potencialmente más peligrosa que las armas nucleares. Otros dos genios de la informática se han sumado a esta corriente de pensamiento: Bill Gates ha asegurado que comparte las preocupaciones del fundador de Tesla y Steve Wozniak que el futuro de la inteligencia artificial es “aterrador y nada bueno para la gente” o que los robots nos utilizarán como mascotas. En los últimos meses, incluso el astrofísico Stephen Hawking ha mostrado su temor a que la inteligencia artificial acabe con la especie humana.
Mientras algunos futurólogos como Ray Kurzweil defienden que la inteligencia artificial nos traerá más ventajas que inconvenientes, como la cura de determinadas enfermedades o el desarrollo de nuevas fuentes de energía, Bostrom cree que su evolución puede ser una de las mayores amenazasuna de las mayores amenazas para la vida en el planeta Tierra. No es el único en el club de investigadores que piensan que el apocalipsis puede llegar de la mano de una superinteligencia.
EL INSTITUTO QUE ESTUDIA SI LOS HUMANOS TENEMOS FUTURO
El multimillonario sudafricano Elon Musk está tan preocupado por los peligros de las máquinas que ha decidido donar diez millones de dólares (unos nueve millones de euros) al Instituto por el Futuro de la Vida (FLI por sus siglas en inglés), una organización de investigadores creada hace un año con el fin de mitigar los riesgos existenciales a los que se enfrenta la humanidad.
El empresario que sueña con viajar a Marte se ha convertido en miembro del Comité de Asesores Científicos del FLI, del que también forman parte Nick Bostrom, Stephen Hawking y hasta Morgan Freeman, que tras presentar la serie documental 'Secretos del Universo' debe haber comenzado a preguntarse por nuestro porvenir.
El promotor de esta institución es el profesor de física del MIT Max Tegmark, que ha calificado como “estúpido” no prepararse para el advenimiento de las máquinas pensantes. Este profesor desconoce cuánto tardarán los ordenadores en superar nuestras limitaciones, pero cree que ha llegado el momento de preguntarse si habrá espacio para los seres humanos cuando eso suceda.
A principios de año, el FLI reunió a 70 investigadores en inteligencia artificial en un hotel de California para debatir sobre la seguridad del futuro. Del evento salió una carta abierta que alababa los beneficios de la inteligencia artificial, al tiempo que reclamaba evitar los “potenciales inconvenientes” para lograr que las máquinas respeten los valores humanos.
Casi 7.000 personas han apoyado la misiva, principalmente estudiantes y profesores de informática o robótica de todo el mundo, pero también profesionales de las principales compañías tecnológicas como Steve Wozniak, Yann LeCun (responsable del Laboratorio de Inteligencia Artificial de Facebook) y algunos trabajadores de IBM, Tesla Motors o Deep Mind, una empresa de inteligencia artificial propiedad de Google.
Aunque el FLI pretendía demostrar con esta carta que los expertos en inteligencia artificial actúan de manera responsable con sus investigacionesen inteligencia artificial actúan de manera responsable, su llamamiento ha acabado creando una cierta alarma mediática. Al fin y al cabo, si los sabios piensan que pueden existir obstáculos para la pervivencia de la raza humana, ¿no es inevitable asustarse?
“Si los objetivos de la inteligencia artificial están alineados con los intereses de la humanidad, podrían tener un impacto muy positivo, como descubrir la solución para evitar la pobreza y las enfermedades. Si el modelo de valores humanos de la inteligencia artificial no está especificado correctamente, podría ser peligroso”, explica a HojaDeRouter.com Viktoriya Krakovna, doctoranda de la Universidad de Harvard y cofundadora del FLI junto a Tegmark y Jaan Tallinn, uno de los primeros desarrolladores de Skype.
Krakovna detalla que retos como la especificación de los valores humanos en las máquinas podrían tardar “décadas en resolverse”, así que desde el FLI se han puesto manos a la obra y acaban de otorgar becas a 37 equipos de investigación para buscar esa inteligencia artificial con la que sea posible convivir.
LAS “CONSECUENCIAS IRREVERSIBLES”
El primer firmante de la carta y uno de sus principales impulsores fue Stuart J. Russell, profesor de la Universidad de California en Berkeley autor junto a Peter Norvig (director de Investigación de Google y simpatizante de la causa del FLI) de 'Inteligencia Artificial: un enfoque moderno', uno de los libros clásicos en este campo.
Tras los grandes avances que se han producido en los últimos años, Russell cree que los investigadores no deben esperar más. Si una red neuronal ha sido capaz de aprender por sí misma a jugar al comecocos y un 'chatbot' que habla basándose en frases anteriores y en predicciones ya declara que el propósito de vivir es hacerlo “para siempre”, es hora de plantearse qué podría pasar si las máquinas llegaran a superar la inteligencia humana en todos los aspectos.
El desarrollo de una inteligencia artificial a un nivel humano marcará un hito en la historia, y “no podemos marchar hacia él con los ojos vendados”, explica Russell a HojaDeRouter.com. “Tenemos que entender lo que significa, lo que estamos haciendo y cómo vamos a garantizar que vaya bien. Si no podemos hacerlo, corremos el riesgo de que las consecuencias sean irreversibles”.
Este profesor critica, eso sí, los “innecesarios” supuestos que describen una superinteligencia dotada de una consciencia espontánea o una maldad intrínseca, frecuentes en la ciencia ficción. El problema real está en la máquina de sonrisas que describía Bostrom, una dificultad que ya había expuesto anteriormente con un ejemplo más banal: una máquina de fabricar clips, aparentemente pacífica, que recibe la orden de crear tanas piezas de alambre como sea posible.
La máquina obedecería ciegamente y, con el tiempo, encontraría la manera de transformar cualquier material sobre la faz de la Tierra (quién sabe si incluso carne humana) en sus preciados clips. Podríamos ordenarla que solo fabricara un millón, pero Bostrom argumenta que podría dedicarse de forma obsesiva a comprobar que ha cumplido la tarea, consumiendo más y más recursos. “Tienes exactamente lo que has pedido, no lo que quieres”, advierte Russell. O “programamos” bien la superinteligencia o acabaremos como el rey Midas, convirtiendo todo en inservible oro (o en este caso, en inservibles clips).
TRANQUILO, LOS PESIMISTAS ESTÁN BARAJANDO SOLUCIONES
Si al conocer las teorías de estos investigadores te ha invadido el miedo, detén tu imaginación. Los investigadores del FLI ya están estudiando qué hacer al respecto. Stuart Russell defendió hace unos meses la necesidad de “construir una inteligencia que esté alineada con los valores humanos de forma demostrable”. Un deliberado oxímoron con el que Russell quiere poner de manifiesto la necesidad de probar con garantías matemáticas que una máquina conoce las necesidades humanas.
“La presunción es que la mayor parte del tiempo, la mayoría de las personas actúan más o menos de acuerdo con unos valores”, nos explica. “Así que si tenemos máquinas tan capaces como los humanos, deberían aprender sistemas de valores similares y tratarlos como primordiales por diseño. Donde haya incertidumbre, la máquina debería ser reacia a actuar”.
Ryan Calo, profesor en la Escuela de Derecho de la Universidad de Washington, es otro de los que han firmado la carta abierta del FLI. Este abogado lleva tiempo reclamando un debate sobre las leyes de la robótica y asegura que, si hubiera una inteligencia superior, habría que cambiar por completo las normas y las instituciones.
Russell coincide en que debemos empezar a regular los avances particulares en la materia, como los coches autónomos o la cirugía con robots, pero defiende que definir las reglas de la inteligencia artificial no ha de ser solo una tarea de los legisladores. También los expertos en inteligencia artificial tienen que preocuparse por impedir el desarrollo de Sistemas de Armas Autónomos Letales (los llamados 'killer robots') que puedan “violar la dignidad humana”, un tema que se debatió el pasado mes de abril en la Convención de Armas Convencionales de la ONU a la que Russel asistió como experto.
Al igual que los físicos tienen que adoptar una postura acerca de las armas nucleares, este profesor opina que los expertos en robótica e inteligencia artificial deben mostrar su punto de vista sobre las armas del futuro: el que calla acaba otorgando. “Podrían ser utilizadas, por ejemplo, para acabar con todas las personas de un determinado tipo (edad, género, raza) en un área geográfica determinada o para someter a poblaciones enteras a través de la amenaza de la ejecución instantánea”, advierte.
¿UN REFERÉNDUM SOBRE INTELIGENCIA ARTIFICIAL?
¿Debemos entrar los comunes mortales en estos debates que tanto nos afectan o debemos dejar que decidan los expertos, que al menos no piensan que la superinteligencia vaya a parecerse a 'Terminator'? Viktoriya Krakovna señala que “una mejor comprensión pública de estos temas que no esté basada en las películas de Hollywood sería positiva”, y desde el FLI ya han criticado el “alarmista 'hype' de los medios” con este tema.
Stuart Russell es uno de los investigadores que más defiende que deberíamos tener voz y voto. “Estas preguntas tienen una influencia importante en la futura configuración de la vida humana. En última instancia, la gente debe decidir qué futuro quiere, no dejar las decisiones a tecnólogos o militares”, señala.
Por su parte, Colin Allen, profesor en la Universidad de Indiana y uno de los investigadores que ha estudiado cómo introducir en la programación de las máquinas algunas pautas morales, coincide en que los ciudadanos deberían estar más informados sobre la cuestión. “En lugar de una moratoria, yo propondría que la inteligencia artificial debería estar sujeta a un grupo de revisión ciudadano”, opina Allen, que desestima las predicciones de Ray Kurzweil sobre la inminente llegada de la singularidad.
Aunque el excéntrico director de ingeniería de Google haya señalado 2045 como el año en que las máquinas alcanzarán la inteligencia sobrehumana, Russell asegura que no solo desconocemos la fecha, sino que tampoco puede pronosticarse como si de un parte del tiempo se tratara.
“De hecho, incluye un elemento de elección: es improbable que ocurra si los humanos no lo buscamos”, sentencia este investigador. Entonces, si todo depende de los propósitos de los expertos en inteligencia artificial y de nosotros mismos, ¿debemos tener miedo como Musk, emocionarnos como Kurzweil o simplemente exigir a los investigadores que sean capaces de controlar sus propias creaciones?
---------------
Las imágenes son propiedad, por orden de aparición de marvelousRoland, RV1864, Dean Hochman, Wikimedia Commons y Sids1 marvelousRolandRV1864Dean HochmanWikimedia CommonsSids1