Espacio de divulgación científica y tecnológica patrocinado por la Universidad de Alcalá (UAH), con el objetivo de acercar el conocimiento y la investigación a la ciudadanía y generar cultura de ciencia
José Ignacio Olmeda (UAH): “Es preciso que abogados, periodistas, artistas o filósofos participen en el desarrollo responsable de la IA”
Hace unos días la Real Academia Sueca de Ciencias daba a conocer que el Premio Nobel de Física recaía en 2024 en John Hopfield y Geoffrey Hinton por sus “descubrimientos e invenciones” relacionados con la inteligencia artificial (IA) que han sido “fundamentales para el aprendizaje automático con redes neuronales artificiales”.
Y este año no ha sido el único premio relacionado con la IA. Demis Hassabis y John M. Jumper han sido galardonados con el Nobel de Química por desarrollar un modelo para resolver un problema de hace 50 años y que pasa por predecir las estructuras complejas de las proteínas
Hablamos con José Ignacio Olmeda, director del Laboratorio de Inteligencia Artificial de la Universidad de Alcalá (UAH) y especialista en Ciencias de la Computación.
¿Cómo valora el galardón en el ámbito de la Física?
Es un premio completamente merecido, Hopfield y Hinton lideraron la investigación en un campo casi inexplorado en la época: el desarrollo de algoritmos de aprendizaje en redes neuronales artificiales. Las redes neuronales artificiales son el modelo más empleado en la Inteligencia Artificial en la actualidad, por ejemplo, son el corazón de sistemas conocidos como ChatGPT.
En la época en la que Hopfield y Hinton realizaron sus investigaciones se sabía que los modelos de redes neuronales artificiales podrían desarrollar tareas complejas, pero no existían, salvo para casos muy simples, algoritmos que permitieran que dichos modelos aprendieran de forma autónoma.
Propusieron los primeros algoritmos que facilitaron que el aprendizaje automático se desarrollara y, como consecuencia, que la Inteligencia Artificial fuese considerada un área de interés no solo teórico sino también aplicado.
¿Qué relación tiene la IA con la Física para merecer un Nobel?
Bueno, a pesar de que hay una enorme relación entre Física y Computación, pensemos por ejemplo en los computadores cuánticos, en este caso particular, dicha relación es debida a que Hopfield y Hinton emplearon ideas de física estadística para desarrollar los algoritmos de aprendizaje a los que me refería anteriormente. Es decir, tomaron ideas de la Física, por otra parte, muy sencillas, para desarrollar algoritmos muy potentes que permitían resolver problemas complejos.
Ellos pusieron, entre otros, las bases del espectacular desarrollo de la IA, particularmente en los últimos años.
Y no ha sido el único Nobel relacionado con la IA…
No. Resulta interesante señalar que en esta misma edición de los premios Nobel, otros investigadores en Inteligencia Artificial han recibido también el premio Nobel, en este caso de Química por algo, en cierto sentido, inverso: la aplicación de modelos e ideas de la Inteligencia Artificial en un problema de enorme dificultad técnica y relevancia en química como la configuración de las proteínas.
Es decir, en este mismo año se ha premiado, doblemente, la Inteligencia Artificial lo que da una idea de la trascendencia e importancia de esta área.
Hinton es considerado como el 'padre' de la IA aunque ya en la década de 1980 Hopfield introdujo un modelo que conectaba la neurociencia con la Física Teórica. ¿Qué supuso?
Bueno en realidad Hinton reconoce que los algoritmos de los que estamos hablando no son una representación plausible para explicar el modo en el que el cerebro humano aprende.
De hecho, pocos años después de plantear los algoritmos por los cuales ha recibido el premio Nobel, Hinton propuso otros más potentes y acordes con dicho funcionamiento y que además son los que se emplean en la mayor parte de sistemas que emplean redes neuronales artificiales en la actualidad.
El impacto de Hinton en el campo de la Inteligencia Artificial trasciende, con mucho, los algoritmos por los que ha recibido el Nobel. Se trata sin lugar a dudas de una figura monumental en el campo de la Inteligencia Artificial y, por extensión, en las ciencias de la computación.
¿Cómo definiría el momento que vive la IA?
Sin duda es apasionante pero también arriesgado. En primer lugar, las expectativas son enormes. Algunos piensan ingenuamente que la Inteligencia Artificial resolverá de manera automática todos los problemas, pero buena parte de ellos no tienen una única solución o incluso no tienen una solución en absoluto.
Por citar un ejemplo, las tres áreas con mayor desarrollo en el campo de la Inteligencia Artificial, es decir, la Unión Europea, Estados Unidos y China han expresado a través de sus regulaciones ideas comunes, pero también divergentes sobre que se puede y debe hacer en el campo de la Inteligencia Artificial.
Los dilemas que plantea la IA son gigantescos, desde preguntas existenciales hasta otras: ¿cómo proteger la propiedad de los creadores cuyas obras alimentan los sistemas de IA generativa?, ¿cuál será el impacto en el mercado de trabajo? o ¿cómo evitar la desinformación?
En concreto, los modelos masivos de lenguaje, como el popular ChatGpt, han sido desarrollados casi en su totalidad en Estados Unidos y China y no cumplen con algunos principios sobre derechos fundamentales recogidos en la regulación sobre Inteligencia Artificial que recientemente aprobó el Parlamento Europeo.
Por otra parte, los dilemas y retos que plantea la Inteligencia Artificial son también gigantescos, desde preguntas existenciales como si estos sistemas sustituirán a los humanos, hasta otras más inmediatas, pero de enorme trascendencia: ¿cómo proteger la propiedad de los creadores cuyas obras alimentan los sistemas de IA generativa? ¿Cuál será el impacto en el mercado de trabajo?, o ¿cómo evitar la desinformación que producen videos, imágenes o locuciones aparentemente reales, pero creadas sintéticamente con ayuda de la IA?
Finalmente, desde un punto de vista técnico, hay cierto consenso entre los investigadores que apunta a la necesidad de nuevos paradigmas que hagan la IA más transparente, más ubicua, sostenible y exacta.
¿Qué impacto puede tener en nuestra sociedad?
En realidad, ya vivimos inmersos en un mundo en el que la IA nos rodea, cada vez que utilizamos nuestro teléfono para saber la mejor ruta en automóvil, cada vez que compramos en tiendas online o que solicitamos un préstamo a una entidad bancaria detrás hay un sistema de Inteligencia Artificial; la IA no va a llegar, ya ha llegado.
Yo diría que, por el momento, el impacto ha sido extraordinariamente positivo, se han eliminado tareas tediosas o incluso peligrosas o nocivas. Es cierto que también ha habido efectos que podríamos llamar “colaterales” negativos: por ejemplo, los deepfakes que mencionaba y que han provocado que mucha gente desconfíe de la información. La IA también ha ampliado en muchos casos la brecha digital ofreciendo, de manera injusta, mayores oportunidades a los que ya se encontraban en una posición privilegiada.
A mi juicio hay muy poca preparación, no solo técnica, sino en general, sobre las implicaciones de la IA. Resulta sorprendente que algunas personas tengan opiniones extremas sobre la IA basadas no solo en un conocimiento escaso sino en una reflexión personal superficial.
Con todo, es bueno que la gente opine bien o mal sobre la IA porque eso demuestra que todos pensamos que es importante, lo que es un paso fundamental para que discutamos sobre cómo debemos desarrollarla.
¿Dónde están los límites de la ética si hablamos de Inteligencia Artificial? Resulta curioso que hasta Hinton advirtiese de los riesgos para la Humanidad de aquello que él ayudó a desarrollar…
Yo comprendo, aunque no comparto punto por punto, la posición de Hinton. Si uno observa sistemas avanzados de IA resolviendo problemas matemáticos, componiendo piezas musicales u ofreciendo opiniones filosóficas a veces uno siente cierto vértigo.
Sin embargo, se olvida que los humanos tenemos también una enorme capacidad para mejorar, para adaptarnos. A mi juicio la IA está moviendo sus propias fronteras, pero también las nuestras. La, llamémosla, ‘presión evolutiva’ siempre ha hecho que los humanos mejoremos, al menos en nuestras capacidades físicas y cognitivas.
La IA presenta una oportunidad de hacer mejor las cosas. Por ejemplo, algunos estudios muestran que los sistemas de IA son más empáticos que los propios médicos a la hora de relacionarse con un paciente. ¿Quiere eso decir que los médicos hayan sido sobrepasados por la IA? Absolutamente no.
Probablemente, quiere decir que estos profesionales están sobrecargados por el trabajo y que deben buscar como liberar tiempo, por ejemplo, empleando IA, para atender todavía mejor a sus pacientes.
En lo relativo a la ética, salvando ciertas posiciones transhumanistas, hay un gran consenso en que el humano debe ser el centro en las decisiones de los sistemas de IA. Los sistemas de IA están aquí para aumentar nuestras capacidades, no para sustituirlas.
El problema es que no todos pensamos lo mismo, valoramos lo mismo o tenemos posiciones éticas comunes, por eso va a ser difícil consensuar una regulación internacional sobre IA.
Aun así, hay principios éticos o existenciales que todos, como humanos, compartimos así que sí es posible colaborar en el desarrollo de una “IA ética”.
¿En qué se centra el interés y la investigación de su departamento en la UAH en relación con la IA?
Mis compañeros de departamento y de otros departamentos de la Universidad de Alcalá están desarrollando investigaciones de enorme interés en muchísimas áreas.
Hay grupos en robótica, en medicina o finanzas, por citar algunos ejemplos. La Inteligencia Artificial es lo que se denomina una Tecnología de Propósito General, en cierto sentido es similar a las Matemáticas, con un impacto horizontal en el conocimiento científico.
Desde el departamento de Ciencias de la Computación, al que pertenezco, se está liderando la colaboración con otros departamentos porque pensamos que la IA es algo que nos puede beneficiar a todos, es algo en lo que tenemos que participar todos.
A mi juicio, uno de los principales motivos que explican el lento progreso de la inteligencia artificial en las décadas precedentes es precisamente la ausencia de puntos de vista diferentes a los puramente computacionales. Es preciso que abogados, periodistas, artistas o filósofos, tradicionalmente muy alejados de la Inteligencia Artificial, participen de un desarrollo productivo, positivo y responsable de la misma.
Yo soy optimista sobre el impacto que la Inteligencia Artificial tendrá en el futuro si, entre todos, somos capaces de canalizar nuestro talento y resolver problemas importantes que condicionan nuestro futuro.
Hace unos días la Real Academia Sueca de Ciencias daba a conocer que el Premio Nobel de Física recaía en 2024 en John Hopfield y Geoffrey Hinton por sus “descubrimientos e invenciones” relacionados con la inteligencia artificial (IA) que han sido “fundamentales para el aprendizaje automático con redes neuronales artificiales”.
Y este año no ha sido el único premio relacionado con la IA. Demis Hassabis y John M. Jumper han sido galardonados con el Nobel de Química por desarrollar un modelo para resolver un problema de hace 50 años y que pasa por predecir las estructuras complejas de las proteínas