Ciencia Crítica pretende ser una plataforma para revisar y analizar la Ciencia, su propio funcionamiento, las circunstancias que la hacen posible, la interfaz con la sociedad y los temas históricos o actuales que le plantean desafíos. Escribimos aquí Fernando Valladares, Raquel Pérez Gómez, Joaquín Hortal, Adrián Escudero, Miguel Ángel Rodríguez-Gironés, Luis Santamaría, Silvia Pérez Espona, Ana Campos y Astrid Wagner.
Evolución y tecnología: ¿sueño o pesadilla?
En el reciente libro La singularidad está cerca. Cuando los humanos transcendamos la biología, Ray Kurzweil explica cómo, a su juicio, los avances tecnológicos cambiarán de forma radical el mundo en que vivimos a lo largo de las próximas décadas. Según el autor, cambios en tres áreas – genética, nanotecnología y robótica – permitirán a la humanidad resolver, en treinta años más, todos sus problemas.
Los avances en genética nos permitirán manipular a nuestro antojo los sistemas vivos, evitando enfermedades y prolongando la vida indefinidamente; los avances en nanotecnología nos darán control casi absoluto sobre el ambiente con el que interactuamos, tanto fuera como dentro de nosotros mismos – utilizando, por ejemplo, “nanobots” (suerte de robots nanoscópicos) para reparar el ADN nuclear y evitar los procesos de envejecimiento – y los avances en robótica e inteligencia artificial concluirán con el perfecto entendimiento del funcionamiento del cerebro y llevarán al desarrollo de máquinas que piensen por sí mismas y produzcan nuevas generaciones de máquinas, cada vez más potentes y sofisticadas.
En la visión de Kurzweil, la coalescencia de estos desarrollos conducirá a “la singularidad”: la fusión de biología y tecnología, haciendo de las supercomputadoras una armoniosa extensión del cerebro y convirtiendo en realidad lo que hoy tenemos por la ficción más disparatada (Kurzweil juega incluso con la idea de viajar a velocidades superiores a la de la luz).
Como cabría esperar, el planteamiento de Kurzweil no ha recibido aceptación universal. Por ejemplo Paul Davies, del Centro Australiano de Astrobiología (Macquarie University, Sydney), pone en entredicho los supuestos y la lógica del argumento. Pero no nos engañemos: Kurzweil no es el loco del barrio, ni un profesor chiflado. Kurzweil estudió ciencias de la computación en MIT y trabaja para Google; su participación en numerosos desarrollos tecnológicos le ha valido importantes distinciones, como la Medalla Nacional de Tecnología e Innovación de EEUU (1999) o el premio Lemelson-MIT (2001).
Kurzweil es, además, conocido por sus libros de divulgación, especialmente los que versan sobre cómo evolucionará la tecnología. Puede equivocarse en sus predicciones, por supuesto, y sin duda yerra en muchos detalles. Pero lo más probable es que buena parte de lo que imagina se haga, aproximadamente, realidad.
Ya existen sistemas que leen la actividad cerebral y la utilizan para controlar objetos. Existen impresoras tridimensionales que permiten crear riñones en miniatura y ordenadores que entienden el lenguaje natural. Es fácil que las máquinas pensantes, máquinas que puedan pasar el test de Turing, se hagan realidad en un futuro próximo.
En cualquier caso, lo que nos concierne en este post no es la fiabilidad de las profecías de Kurzweil. No. Lo que nos preocupa es la filosofía sobre la que las predicciones reposan. La idea de que el desarrollo tecnológico es la solución a todos nuestros problemas y, sobre todo, la propuesta de que dejemos nuestro futuro en manos de máquinas inteligentes y autónomas. Si la tecnología puede cambiar de forma radical nuestras vidas, e incluso el concepto que tenemos de vida, ¿debemos dejar en manos de los científicos y tecnólogos la decisión sobre las tecnologías que se han de desarrollar?
Kurzweil conoce los peligros inherentes al programa que promulga, y dedica una buena parte del libro a discutirlos. Contra el riesgo de que la bioingeniería se utilice para crear armas biológicas sugiere aumentar los presupuestos de investigación en biotecnología. Así, argumenta, si grupos terroristas o “estados villanos” ("rogue states" es la terminología utilizada en la versión inglesa) intentan utilizar armas biológicas para “atacarnos” (se entiende que habla de ataques dirigidos contra EEUU y sus aliados), estaremos listos para defendernos.
En el caso de la nanotecnología, además de aumentar el presupuesto de investigación (en particular el destinado a fines militares) propone adherirse a las pautas para el desarrollo responsable de nanotecnología publicadas por el Foresight Institute. Entre dichas pautas cabe destacar la sugerencia de que los nanotecnólogos acepten no desarrollar entidades físicas capaces de autoreplicarse en ambientes naturales – si bien Kurzweil sugiere que esta limitación debe descartarse para ciertas aplicaciones, como el desarrollo de un sistema inmunitario planetario destinado a protegernos de ataques terroristas con nanobots.
En general, concluye, “la meta-lección es que deberemos poner la prioridad máxima de la sociedad del siglo veintiuno en el avance continuo de tecnologías defensivas” (pg. 419 de la versión inglesa, nuestra traducción).
No es difícil entender por qué el Foresight Institute sugiere que no se desarrollen entidades físicas capaces de auto-replicarse en ambientes naturales. Si dichas entidades llegan a desarrollarse, y si el proceso comparte con los seres vivos la herencia de caracteres y los errores ocasionales en el proceso de replicación, será difícil evitar que dichas entidades evolucionen por un proceso similar al de la selección natural. Las entidades que se repliquen más se harán más frecuentes, independientemente de que cumplan, o no, los fines para los que fueron diseñadas.
Por otro lado, aunque el origen de la autoreplicación descontrolada fuera errático, la capacidad intrínseca de un robot para modificarse “voluntariamente” aumenta el riesgo de que dicha “evolución” sea mucho más rápida que la natural, con una velocidad de cambio creciente, tal y como argumenta el propio Kurzweil en su ensayo. Sería, por tanto, posible que – de desarrollarse este tipo de entidades – se perdiese rápidamente el control sobre las mismas. Por esta razón algunos autores, como Bill Joy – también tecnólogo y autor de “Por qué el futuro no nos necesita” – mantienen que crear un sistema inmunitario planetario de nanobots auto-replicantes no es una buena idea. A lo cual Kurzweil replica que negarse a desarrollar un sistema inmunitario planetario para defendernos de ataques terroristas sería como “argumentar que los humanos estarían mejor sin sistema inmunitario por la posibilidad de desarrollar enfermedades autoinmunes” (pg. 417).
Al margen de que no parece razonable extrapolar la validez o utilidad de un sistema inmunitario que ha evolucionado de forma natural, produciendo resultados estadísticamente positivos durante millones de generaciones, con otro diseñado y construido ex novo por el ser humano o por máquinas creadas por el ser humano, queda por precisar en qué consiste un sistema inmunitario planetario. En la naturaleza, los sistemas inmunitarios defienden a los organismos de agresiones externas, atacando lo que no se reconoce como propio. Pero, ¿cómo definimos propio y extraño a nivel planetario? Tal y como planteábamos antes, quizás no debamos dejar a tecnólogos y científicos tomar estas decisiones por su cuenta – en el caso, por supuesto, de que estuviéramos de acuerdo en desarrollar un sistema inmunitario planetario.
A largo plazo, los mayores riesgos tal vez se encuentren a la hora de desarrollar máquinas pensantes, mucho más inteligentes que los humanos, que se encarguen de diseñar nuevas máquinas cada vez más potentes. Como Kurzweil y otros autores admiten, una vez que se da rienda suelta a este proceso no hay marcha atrás, no hay mecanismo de control posible “porque una inteligencia mayor siempre encontrará formas de sortear barreras que son el producto de una inteligencia menor” (pg. 424). ¿Cómo podemos inicializar el proceso para asegurarnos de que funciona a la primera, de que las máquinas creadas por otras máquinas trabajan por y para el bien de la humanidad en lugar de trabajar para reproducirse a sí mismas como hacen los seres vivos?
La respuesta de Kurzweil es desconcertante por su simpleza y, tememos, ingenuidad. Debemos maximizar “la probabilidad de que la futura inteligencia no biológica refleje nuestros valores de libertad, tolerancia y respeto por el conocimiento y la diversidad” (pg. 424). Algo que, por lo visto se consigue “manteniendo un sistema abierto de mercado libre para el gradual progreso científico y tecnológico, en que cada paso está sujeto a la aceptación de los mercados” (pg. 420) aunque Kurzweil no explica cómo, ya que “el argumento es sutil”.
La investigación y producción de altas tecnologías requiere una inversión descomunal que sólo pueden permitirse quienes dispongan de grandes capitales (sean estados o entidades privadas). Quien controla el capital controla cómo se van a desarrollar esas máquinas futuras, esos sistemas inmunes que decidirán qué es propio y qué debe ser eliminado como extraño. Quienes financian la investigación y el desarrollo tecnológico están en condiciones de determinar en qué dirección se desarrolla, y con qué función.
A la vista de lo que ha hecho el ser humano hasta la fecha, no parece que vayan a elegir otra cosa que obrar en su propio beneficio – beneficio del país o entidad privada que desarrolla la tecnología – al margen de las consecuencias que pueda acarrear para otros. Aunque Kurzweil apunta que “debido al crecimiento exponencial de la relación prestaciones-precio, estas tecnologías se abaratan rápidamente hasta convertirse en casi gratis” (pg.430), cabe preguntarse si los niños que trabajan en las minas del Congo, por ejemplo, tienen acceso a las tecnologías “casi gratis” que se desarrollaron hace cinco o diez años.
La pregunta, pues, es: ¿quién va a controlar el capital? O se produce en los próximos lustros un cambio dramático en la distribución del poder de decisión sobre el uso del capital, y por tanto sobre el desarrollo tecnológico, o la “singularidad” – que parece cuanto menos probable, independientemente de los detalles con que se presente – extremará la diferencia entre los que lo tienen todo y los que no tienen nada. Sólo si el poder de decisión pertenece realmente a la mayoría, si se lleva a cabo una auténtica revolución democrática, el potencial de la tecnología tienes opciones de revertir en beneficio para la mayoría.
No creemos posible ni deseable detener el progreso tecnológico. No estamos sugiriendo que se pongan trabas a la investigación. Pero creemos que la sociedad, en su conjunto, debe participar en la toma de decisiones sobre el desarrollo tecnológico. Y para que pueda participar en el debate, debe primero recibir la información pertinente.
Sobre este blog
Ciencia Crítica pretende ser una plataforma para revisar y analizar la Ciencia, su propio funcionamiento, las circunstancias que la hacen posible, la interfaz con la sociedad y los temas históricos o actuales que le plantean desafíos. Escribimos aquí Fernando Valladares, Raquel Pérez Gómez, Joaquín Hortal, Adrián Escudero, Miguel Ángel Rodríguez-Gironés, Luis Santamaría, Silvia Pérez Espona, Ana Campos y Astrid Wagner.