Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
La portada de mañana
Acceder
La declaración de Aldama: “el nexo” del caso Ábalos apunta más arriba aún sin pruebas
De despacho a habitaciones por 1.100 euros: los ‘coliving’ se escapan de la regulación
Opinión - ¿Misiles para qué? Por José Enrique de Ayala

Juegos, realidad virtual y medicina: los grandes nichos de la Inteligencia Artificial

Una de las múltiples Inteligencias Artificiales de Google intentando detectar un tumor

David Sarabia

Circula un vídeo descorazonador en Internet que captura el preciso instante en el que Lee Se-dol se da cuenta de que no puede ganar a AlphaGo, una Inteligencia Artificial (IA) creada por Google en 2016 y diseñada para batir a cualquiera al milenario juego chino. Se-dol ha sido el mejor jugador jugador de Go de los últimos diez años, pero ni un gran maestro de su talla estaba preparado para encajar el movimiento que un humano ejecutaría 1 entre 10.000 veces.

AlphaGo estaba construida con redes neuronales profundas. Fue entrenada miles de veces con partidas ya disputadas por otros profesionales, de las que fue aprendiendo estrategia mientras sacaba patrones de cada jugada. Así batió a Se-dol: siendo mejor que él porque, sencillamente, sabía más. Pero Google, lejos de conformarse, fue un paso más allá dos años después, cuando presentó a AlphaZero. La nueva Inteligencia Artificial se fundió a AlphaGo en 30 horas y no solo jugaba al Go, también lo hacía al ajedrez y al shogi (el ajedrez chino). Ganó a la mejor máquina jugando al deporte de Kasparov en cuatro horas, mientras que hizo lo propio con la del shogi en dos.

“El motivo no es que la red sea más lista: lo que han resuelto es el problema de cómo generar los datos. Pero hoy por hoy la IA y las redes neuronales en concreto están orientadas a problemas muy específicos”, explica a eldiario.es José Luis Calvo, director de Inteligencia Artificial en Sngular. Hablamos con él sobre los usos mayoritarios que hoy por hoy tienen las redes neuronales artificiales, y es inevitable que salgan los juegos.

Juegos y realidad virtual

Por ejemplo, DeepMind también tiene otra IA que se pule a los humanos jugando al Starcraft II (un videojuego de estrategia), y hace apenas dos semanas lanzó otra que ha aprendido a cooperar y jugar en equipo, como si fuera un humano más. Fuera de Google, tenemos máquinas capaces de manejar a Mario a la perfección en el Super Smash Bros; aunque también las hay más torpes que juegan a la Jenga.

“El problema en la vida real es que en un juego de tablero las situaciones son buenas o malas de forma objetiva. Entonces esa estrategia, esa técnica, tiene muchas limitaciones cuando te las llevas a otros problemas, porque las situaciones no son buenas o malas de forma objetiva”, continúa Calvo.

Otro cantar es cuando nos llevamos esas redes neuronales artificiales al terreno de la realidad virtual. “En el momento en que tú eres capaz de simular algo de forma suficientemente realista, para un ordenador esa realidad virtual o la realidad es lo mismo”, dice el investigador de Sngular. “Si yo soy capaz de hacer una simulación lo suficientemente buena, el ordenador puede estar entrenándose él solo en un escenario de realidad virtual”, continúa Calvo, que recalca la eliminación de “las limitaciones de mundo físico” en este entorno simulado. “Le da una potencia de escalabilidad tremenda porque ya es pura capacidad de computación que yo pueda hacerlo una y otra vez”, dice.

Ahora imaginen esto en el terreno de la medicina. Redes neuronales artificiales entrenándose en operaciones virtuales a través de la prueba y el error. Aún es pronto para esto, pero en el futuro todo llega. Calvo prefiere ser cauto y hablar sobre el ahora. Más concretamente de la diagnosis de enfermedades a través de Inteligencia Artificial, un terreno donde sí están haciendo un buen trabajo (al menos de momento).

La medicina: ¿El place to be de la IA?

place to be“Ya hay algún caso que se va a resolver muy bien con IA. En general con redes neuronales y en concreto cuando la diagnosis sea a partir de imágenes, con convolucionales”, continúa Calvo. Hace un año en China presentaron una máquina que era capaz de diagnosticar tumores cerebrales al 90% de precisión. Compitió contra 15 médicos analizando imágenes de TACs y les ganó en las dos rondas que disputaron.

Como ya explicamos la semana pasada, las redes convolucionales (CNNs) se usan principalmente para analizar imágenes y sacar patrones ocultos. “Hay unas que te identifican sombras, contornos... Luego hay otras que tienen de entrada esas formas y se dedican a identificar partes de la cara como oreja, nariz, etcétera”, continúa el de Sngular. Precisamente por eso, cada vez más IAs se ponen a trabajar sobre las imágenes médicas como los TACs, las radiografías y las resonancias magnéticas.

“Algo hay en la imagen que lo está anticipando antes de que nosotros podamos verlo. Si empiezas a entrenar un modelo con imágenes del bazo o radiografías de alguien que acaba enfermo pero antes de saber que está enfermo, aunque nosotros no lo veamos, la máquina lo saca”, continúa Calvo. En 2017, Google lanzó un programa para ayudar a los médicos “a tratar patologías de cáncer con aprendizaje profundo”. En mayo dijeron que ya estaba preparada para detectar señales tempranas de la enfermedad.

Problemas: la privacidad, los modelos y la caja negra

En julio del 2017, Reino Unido multó a Google por utilizar los datos de millones de pacientes de los hospitales del NHS de forma ilegal. DeepMind los pidió para entrenar a sus redes neuronales con imágenes de riñones y así más tarde desarrollar una app (Streams) para monitorizar a los enfermos de esta dolencia. No sabemos si era buena o mala, pero Google aún mantiene abiertos dos frentes allí: uno para tratar las enfermedades oculares y otro para predecir la ceguera en pacientes diabéticos. En ambos casos, necesitarán millones de imágenes de ojos humanos enfermos y sanos.

A pesar de que las redes neuronales parezcan la panacea que salvará a los médicos (y a los pacientes sobre todo) y les ayudará a identificar enfermedades tan solo viendo una imagen, Calvo señala una gran limitación: “Hay del orden de 10.000 enfermedades distintas. Entonces tienes que ir hacia 10.000 modelos, con las derivadas que eso supone”. Afortunadamente, la mayoría de esas arquitecturas neuronales pueden ser reutilizadas, de tal forma que un modelo de red que detecte tumores cerebrales, reentrenado con otro tipo de imágenes, sirva para detectar otro tipo de tumores.

El investigador finaliza su conversación con eldiario.es mencionando uno de los principales problemas a los que se enfrenta su sector a la hora de tratar con redes neuronales artificiales: la caja negra (o black box, en inglés). “Con una red no tienes trazabilidad hacia atrás para saber por qué. Y la respuesta al por qué, de inicio, no es nada evidente”, señala Calvo. El de Sngular también menciona los sesgos con el que esas IAs habrán sido entrenadas, que a veces será culpa de los datos y otras, de quienes las construyeron. Pone un ejemplo para entenderlo mejor: “Imagínate que siempre has estado entrenando al sistema y todas las fotos con enfermedad son unas fotos en las que pone un literal, que es el nombre del hospital y la sección de Oncología. Podría pasar que de repente empiece a entender que cuando pone 'Departamento Oncológico' es que alguien esté enfermo. Eso puede pasar y es un sesgo malo”, concluye.

Etiquetas
stats