Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

Historia de una fusión: cerebro y máquina

Neurocientífica, Instituto Cajal, CSIC
cerebro maquina
30 de agosto de 2023 22:20 h

2

El artificio de crear algo deriva esencialmente de la capacidad animal de transformar el mundo. No somos únicos en esto. Los pájaros crean nidos con las ramas, los castores construyen presas alrededor de sus madrigueras usando troncos y barro, las arañas entrelazan el vacío con finísimos hilos. Estas transformaciones configuran un nuevo espacio material, que les dota con capacidades extendidas. Los nidos, los diques de los castores y las telas de araña son inventos que estas especies explotaron para su propio beneficio evolutivo. El ser humano empezó copiando ideas, pero la cosa fue mucho más allá.

Hoy recorremos el planeta en aviones y barcos, nos sumergimos hasta donde no aguantan los pulmones o transformamos la energía para llevarla donde la necesitamos. En algún momento, vimos la oportunidad de remediar los males que nos aquejaban. Entonces, nos colocamos lentes frente a los ojos para corregir la visión, implantamos dientes en nuestras mandíbulas, desarrollamos prótesis de titanio y cerámica para la cadera y nos insertamos un marcapasos en el corazón. Visto así no parece nada serio fusionarnos con las máquinas. Excepto, tal vez, para el órgano que ha permitido crear todo esto.

Se dice que el cerebro es el órgano más complejo, el más desafiante; el ‘súmmum’ de un largo proceso que empezó la naturaleza millones de años atrás. Entenderlo es entendernos. El cerebro nos dota de la capacidad de recibir señales e interpretarlas, de integrarlas en nuestro registro de memorias, de proyectarnos mentalmente y de actuar. Es tan especial, que la naturaleza acabó guardándolo dentro de un cofre duro y bien sellado. Hay algo temible en la idea de abrir la caja de Pandora de nuestra mente.

Entender la forma en la que opera el cerebro nos ha seducido desde siempre. Los primeros intentos de copiarlo vinieron de la mano de la lógica y las matemáticas, que proporcionaron las herramientas básicas para conceptualizar el razonamiento.  Por ejemplo, la lógica proposicional, que es un tipo de lógica formal, permite representar el conocimiento en forma de declaraciones del tipo “si A, entonces B”. Estas declaraciones se pueden representar matemáticamente mediante operadores lógicos (AND y OR, por ejemplo) para crear un conocimiento mucho más sofisticado del tipo “si A y B, entonces C”.    

Un primer paso en la invención de un razonamiento artificial y la automatización de los operadores lógicos se materializó mediante ruedas dentadas. Para implementar un operador AND había un engranaje de salida que rotaba sólo si los engranajes de entrada A y B lo hacían. En un operador OR, esto sucedía si al menos uno de los dos rotaba. Desde estas primeras computadoras hasta hoy, el ejercicio de imitación de nuestro órgano más complejo ha sido vertiginoso. Tubos de vacío, transistores, circuitos integrados y microprocesadores, han permitido el desarrollo sucesivo de ordenadores cada vez más compactos y potentes. Con ellos, las operaciones matemáticas ganaron en velocidad y precisión, su uso se popularizó e invadieron todos los ámbitos de la vida. Pero a principios del siglo XXI aún eran otra cosa. Nada que ver con la complejidad de los cerebros biológicos más simples, es decir, el de un gusano o el de un ratón. 

Un juego de imitación imparable

Los ordenadores clásicos necesitan comandos para ejecutar funciones muy concretas. La computadora sigue estas instrucciones al pie de la letra, sin ninguna capacidad para adaptarse o aprender de la experiencia. El gran giro vino con el desarrollo de la inteligencia artificial. En los años 1950 y 1960 comenzamos a explorar el concepto de redes neuronales, ecuaciones matemáticas interrelacionadas que imitan la estructura de los circuitos cerebrales. Sin embargo, debido a las limitaciones en la potencia y capacidad de almacenaje de aquellos ordenadores, el progreso fue lento y el aprendizaje automático siguió siendo en gran medida un concepto teórico, confinado sobre todo a los centros de investigación.

Hacia la década del 1990, el juego de imitación comenzó a escalarse de una forma imparable. Se desarrollaron algoritmos que podían analizar grandes cantidades de datos, lo que permitía que las máquinas reconocieran patrones e hicieran predicciones. El desarrollo de técnicas como el análisis de grupos, los árboles de decisión y las máquinas de vectores de soporte permitieron una variedad de aplicaciones. Estas estrategias de aprendizaje automático se basan en la identificación de tendencias en los datos mediante un proceso de comparación iterativo (“si A y B, entonces C”) que los reasigna entre grupos lo más separados posible. 

En paralelo, las neurociencias iban desvelando algunos de los secretos del cerebro. ¿Cómo representamos la información?  ¿Cómo la manejamos para decidir? ¿Cómo aprendemos? La nueva potencia de cálculo y almacenaje catapultó el desarrollo de algoritmos neuroinspirados como el empleo de múltiples capas neuronales de procesamiento, el aprendizaje por refuerzo, o el auto-entrenamiento durante fases parecidas al sueño, que han convertido a las computadoras más modernas en potentes cerebros artificiales. Para ello, diferentes arquitecturas neuronales son entrenadas en reconocer patrones etiquetados previamente, lo que consiguen modificando los pesos de sus conexiones en un proceso de aprendizaje. Estas nuevas máquinas no solo son capaces de reconocer texto, voz o imágenes, sino de ganarnos al ajedrez o en otros juegos en los que el número de posibilidades y las estrategias son difíciles de conceptualizar.

Hoy en día a nadie le asusta hablarle a los dispositivos. Comunicarnos con las máquinas es algo natural. ¿Pero y la fusión? Hasta ahora el invento se ha quedado separado de nuestro cuerpo, permitiendo la interacción mediante interfaces que nos dejan escribir o dictar lo que queremos. 

Las interfaces cerebro-máquina son un tipo de tecnología que busca controlar dispositivos electrónicos usando la propia actividad cerebral. En el núcleo de estas interfaces está el algoritmo que decodifica la actividad del cerebro. Los primeros intentos ejecutaban tareas muy simples, como mover un cursor. Estos prototipos se basaban en el uso de señales de electroencefalografía registradas sobre el cuero cabelludo. Pronto quedó patente que decodificar la intencionalidad del movimiento con precisión sólo a partir de la actividad cerebral externa resultaba ser difícil. 

En cambio, los estados de atención y fatiga pueden ser leídos de manera general a partir de los cambios en los ritmos del electroencefalograma. Cuando cerramos los ojos relajadamente, la actividad en la corteza visual sobre la zona trasera de la cabeza, oscila entre ocho y catorce ciclos por segundo. Este ritmo, conocido como Alfa, puede ayudar a determinar el nivel de alerta cognitiva de una persona. No sólo se trata de querer mover un dedo, tal vez hay que poner cierta atención en ello. Cuando los algoritmos se entrenan para integrar información de los estados mentales (relajación, ansiedad, fatiga) con aquella proveniente de otros sensores externos (movimiento de ojos, orientación), la capacidad de control mejora sustancialmente. Esto ha permitido por ejemplo poder seleccionar secuencias de letras en la pantalla de una computadora de manera más consistente explotando la capacidad de atención. 

El desarrollo de las interfaces cerebro-máquina ha ido de la mano del deseo de ayudar a las personas con discapacidades motoras graves a interactuar con el mundo que les rodea. En muchos de estos casos, es posible acceder al interior del cerebro, utilizando registros intracraneales de las regiones correspondientes a la corteza motora responsable del movimiento natural. Estas interfaces funcionan detectando y traduciendo la actividad neuronal en comandos que se pueden usar para controlar otros dispositivos, como un brazo robótico, de manera muy precisa. Pero, estas aplicaciones más invasivas suponen perforar el cráneo con los riesgos que esto entraña. Hoy sabemos que el eje cuerpo-cerebro puede ayudarnos a entender mucho mejor lo que tenemos en mente. Tal vez no sea necesario abrir del todo la caja.

El bucle cerrado

Las neurociencias están permitiendo un progreso significativo en el diseño de nuevas interfaces cerebro-máquina. Se ha visto que el cerebro conectado directamente con la máquina es capaz de aprender a mover los dispositivos externos utilizando los mismos mecanismos con los que aprendemos a andar. Este proceso requiere una gran cantidad de entrenamiento y calibración para garantizar que el sistema sea preciso y fiable. Por ello, aún se trabaja en comprender mejor el código neuronal, reconstruyendo la forma en la que representamos la información y nuestras intenciones, cómo accedemos a la memoria o cómo priorizamos decisiones ante un espacio de opciones abiertas. 

Cuando conectamos directamente la actividad neuronal con dispositivos externos mediante ordenadores de nueva generación, nuestro cerebro cierra el bucle que media entre la intención y la acción. Ese refuerzo opera en dos circuitos neuronales equivalentes: el natural que aprende según los mecanismos biológicos, y el artificial que aprende con los nuevos algoritmos neuroinspirados. Ese ensamblaje, esa fusión entre el modelo y su copia, busca establecer la comunicación de la manera más eficiente posible, hablando un lenguaje común. Ese que opera dentro de nuestra materia gris, y que seguimos intentando copiar con tecnologías cada vez más depuradas. 

La fusión cerebro-máquina no es demasiado diferente a la que se da entre el marcapasos y el corazón, pero si más temible. Cuestiona aquello que hasta ahora ha permanecido guardado bajo el cráneo. El origen de todo lo que hemos conseguido construir. Remueve certezas y acuerdos tácitos, sacudiendo la seguridad de un mundo operado a nuestra voluntad. El tiempo que viene traerá debates profundos sobre lo que somos, y cambiará todo lo que conocemos. Es difícil imaginar hasta dónde nos llevará esta fusión, tanto como fue difícil anticipar cuán lejos podríamos llegar con engranajes giratorios simulando una comparación entre A y B.

Un mundo hibridado

Los próximos años verán avances espectaculares en la fusión cerebro-máquina. Su rendimiento y precisión serán mejorados con algoritmos que se comuniquen de manera más eficiente con el cerebro. Este conocimiento básico sólo puede ser obtenido mediante experimentación con animales y humanos, accediendo a la actividad de múltiples neuronas junto a información precisa de su conectividad y mecanismos para el aprendizaje y la memoria. 

Las nuevas interfaces se están moviendo más allá del ámbito de la investigación, volviéndose accesibles para el público en general. En su ensayo está el reajuste e integración sostenible de una tecnología que debe ayudarnos a hacer la vida mejor. Ya existen dispositivos sencillos, como los auriculares electroencefalográficos, y podemos esperar ver más productos y aplicaciones en el futuro como la integración con la realidad virtual y ampliada para crear experiencias inmersivas en educación o el ocio cultural.

Las aplicaciones clínicas de las nuevas interfaces serán revolucionarias. Al ritmo actual, se prevé un impacto enorme en medicina al proporcionar nuevas formas de diagnóstico y remediación de trastornos neurológicos, como la epilepsia, los accidentes cerebrovasculares, o las metástasis cerebrales, entre otros. 

Con el uso de estas tecnologías llegan nuevos problemas éticos. En un mundo hibridado con las máquinas, el ser humano ha de seguir siendo el centro, y la búsqueda del bien común el único de los objetivos. Desde aquel nido que hicimos para guarecernos imitando a los pájaros, hasta el dique levantado para contener las mareas como los castores, hemos andado un trecho gigantesco. Seguimos construyendo un mundo transformado, en el que buscamos tejer con finísimos hilos una tela que conecte nuestra mente con las máquinas más complejas que hemos inventado.

Etiquetas
stats