Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

¿Quién teme a la IA feroz?

Inteligencia artificial
27 de abril de 2023 21:44 h

22

“Un fantasma recorre Europa: el comunismo”, así comienza el manifiesto comunista de Karl Marx. Hoy podríamos decir: “Un fantasma recorre el mundo: la Inteligencia Artificial”. De repente se ha desencadenado un miedo global. Conocidos científicos y empresarios escriben una carta pidiendo que se detengan las investigaciones durante seis meses, y el aire se llena de presagios apocalípticos. ¿A qué viene ese sobresalto? ¿Ha sucedido algo imprevisto?

La historia de lA es muy larga. En 1957, Simon, Shaw y Newell dejaron pasmados a los expertos al presentar General Problem Solver, un solucionador general de problemas, aprovechando una tecnología digital aún en mantillas. En 1964, Josep Weizembaum, del MIT,  creó el programa ELIZA, que simulaba ser una psicoterapeuta que conversaba en lenguaje natural con el usuario, y que asustó por su verosimilitud. Cuando, en 1997, el programa Deeper Blue de IBM venció a Kasparov, hubo una conmoción mundial pensando que la inteligencia humana había sido definitivamente superada. Ray Kurweil, el hombre que según Bill Gates ha comprendido mejor el futuro de la Inteligencia Artificial, anunció en 2005 el advenimiento de la Singularidad (una nueva especie humana híbrida de tecnología) en The Singularity Is Near. En 1998, Nick Bostron, autor de Superinteligencia, fundó la World Transhumanist Association para estudiar la superación de la humanidad. En 2013, la Universidad de Oxford publicó The Future of Employment, advirtiendo que el 47% de los actuales puestos de trabajo van a desaparecer con las nuevas tecnologías. Elon Musk funda Neurolink Corporation, en 2016, para implantar microchips en cerebros humanos.

Si todas estas noticias eran conocidas, ¿por qué ahora ha sonado la alarma? Por dos razones: porque el alarde tecnológico del ChatGPT3 es fácilmente comprensible y porque el cambio viene mas rápido de lo que pensábamos. Después de oír tantas veces gritar “¡Que viene el lobo!”, ahora parece que viene de verdad. 

¿Quién tiene miedo de la Inteligencia Artificial? Mucha gente: quienes temen perder su puesto de trabajo, los que auguran una servidumbre del sujeto humano, los que prevén un mundo artificial imposible de comprender, la anulación de la democracia, el imperio de la desinformación y el aumento de la desigualdad. ¿Qué hay de verdad en todo esto? Para contestar a esa pregunta, que es esencial para el mundo de la educación, hay que saber cuáles son las capacidades de la IA:

    1. La IA puede compilar y relacionar gigantescas masas de datos, e integrarlos en aplicaciones que superan la capacidad humana.

      2. La IA puede reconocer patrones en esa enorme masa de datos, incluso patrones no detectables para la inteligencia humana.  

      3. La IA aplicada a la robótica puede dirigir robots capaces de operaciones complejas y sofisticadas, y la “Inteligencia Artificial Adaptativa” puede ser eficaz en entornos cambiantes...

      4. La IA, gracias al Deep Learning , aprende con increíble rapidez. El programa AlphaZero, inventado por DeepMind, puede aprender a jugar al ajedrez a alto nivel en 4 horas. Puede aprender incluso a diseñar programas más potentes de IA.

      5. La IA puede generar textos complejos en lenguaje natural, aprovechando colosales bancos de datos y una velocidad de lectura gigantesca. Es el reino de la Inteligencia Artificial generativa.

Estas funciones en sí son admirables, como lo son las de la inteligencia humana. Pero ya sabemos que una cosa es la inteligencia como capacidad y otra es el uso que se haga de esa inteligencia. Mi maestro Robert Sternberg, uno de los grandes psicólogos del siglo pasado, se preguntó con razón: “¿Por qué si somos tan inteligentes hacemos tantas tonterías?”. Porque el uso de esa formidable maquinaria que es la inteligencia, sea artificial o natural, supone una capacidad de un nivel de complejidad superior: saber utilizarla. De ella dependen la acción, la elección de proyectos, los criterios de evaluación, la reflexión crítica sobre los resultados de la computación inteligente, el engranaje con el mundo de las emociones, y las implicaciones éticas y políticas. 

El mal uso de la Inteligencia artificial es peligrosísimo, como lo es el mal uso de la inteligencia natural. Pero el uso no es una propiedad intrínseca de la IA, sino del componente humano unido a ella. La capacidad de reconocer patrones, por ejemplo, nos permite crear conceptos, comprender los procesos, crear teorías, identificar nuevas moléculas, pero también discriminar a las personas, establecer sistemas de control por reconocimiento facial, implantar lo que Shosana Zuboff ha llamado “capitalismo de la vigilancia”. Los recursos de la Inteligencia artificial potencian cualquier tipo de actividad, las beneficiosas y las criminales. Mejoran el diagnostico médico, la invención de vacunas, pero tambien la letalidad de las armas o el poder de la delincuencia. Han ayudado a desarrollar técnicas de adoctrinamiento y persuasión, como las estudiadas por B.J.Fogg, fundador del Persuasive Tech Lab de la universidad de Stanford, cuya obra más conocida es Tecnologías persuasivas: usar ordenadores para cambia lo que pensamos y hacemos. Otro experto, Nir Eyal, titula el suyo Enganchados: cómo diseñar productos para crear hábitos. Nicholas Carr se pregunta: ¿Google nos está haciendo estúpidos? ¿Qué está haciendo Internet con nuestras mentes? Sean Parker, primer presidente de Facebook, contesta: “Solo Dios sabe cómo está influyendo en el cerebro de los niños”. Y Jaron Lanier, uno de los grandes revolucionarios informáticos, remata: los está incluyendo en el rebaño digital.

Pero eso no lo está haciendo la inteligencia artificial, sino las personas que la utilizan, tanto los diseñadores como los usuarios. Son sistemas extraordinariamente poderosos y van ser utilizados por quien quiera ejercer el poder, sea político, económico o religioso. El poder tiende a ser expansivo siempre. No tiene sistemas internos de frenado. Por eso, la petición de una moratoria de seis meses es ingenua e inútil. Solo serviría para que los desaprensivos la aprovecharan para progresar en la carrera competitiva. El freno debe ser exterior. ¿Por parte del Estado? En parte sí, y de hecho se están estudiando formas de regulación, pero dado que el Estado forma parte del sistema de poder, tampoco tiene frenos y no puede ser la garantía de último recurso. Al final tenemos que confiar en el ciudadano. La Inteligencia Artificial es peligrosa solo si su ultimo usuario decide que no lo sea. Los algoritmos solo manejan información, y únicamente pueden dirigir la acción de robots, no de seres humanos, a no ser que estos hayan sido previamente robotizados. Este es el punto clave. La conducta adictiva que estamos demostrando con los móviles, la credulidad frente a las redes, el uso de cámaras de eco y filtros burbuja para formar tribus identitarias cerradas, la transferencia de la toma de decisiones a sistemas de IA, y la crisis del pensamiento crítico generalizada incluso en las grandes universidades americanas (como han puesto de manifiesto Haidt y Lukianoff), permiten temer una robotización voluntaria por comodidad.

Es aquí donde entra la educación. Ante unas poderosas tecnologías de la inteligencia debemos formar un especial modo de usar la inteligencia humana. Una realidad digitalmente expandida necesita  una inteligencia humana expandida también. Este es el tema del momento: ¿qué tipo de inteligencia debe ayudar a formar la educación para no desaprovechar el gigantesco poder de la tecnología ni dejarse suplantar por él? No se trata de una mera curiosidad teórica. Para la educación plantea un problema práctico ineludible y urgente. Por desgracia, estamos empantanados en disputas superficiales, sin entrar en el debate central. En nuestras aulas está ya la 'Generación Centauro', que va a tener que integrar los dos tipos de inteligencia, la natural y la artificial. ¿Quién va a decidir cómo se hace esa fusión? 

El nombre de Generación Centauro procede de un comentario que hizo Kasparov después de perder con el programa informático de IBM. Le preguntaron cómo podría ser el jugador de ajedrez del siglo XXI, puesto que no podría vencer a un programa de IA. Kasparov respondió: “Será un jugador Centauro. Una inteligencia humana que jugará con la ayuda de su ordenador”. Inventó entonces (1998) el “ajedrez avanzado”. Pues bien, necesitamos, a todos los niveles -cognitivo, emocional, práctico, ético- una “inteligencia avanzada”, capaz de enfrentarse a las nuevas posibilidades. Las investigaciones sobre “Inteligencia humana ampliada” van en esta dirección, que me parece muy prometedora porque  no pretende que la inteligencia artificial suplante a la natural, sino que la ayude a ampliar sus recursos.         

Esto suena muy bien, pero llevarlo a las aulas, implementarlo en currículos, formar a los docentes que han de dirigir su aplicación, es enormemente complicado. No tenemos tiempo que perder. Pero lo perderemos si la sociedad no se da cuenta de cómo le afecta este asunto.

Etiquetas
stats