“Un riesgo fundamental para la existencia de la civilización humana”. Pese a que Elon Musk define en esos términos la inteligencia artificial, los gigantes tecnológicos han convertido el avance de las máquinas en una de sus apuestas de futuro. De hecho, Google y Facebook acaban de anunciar un nuevo empujón: mientras el todopoderoso buscador abre un laboratorio de inteligencia artificial en París, la red social, que ya tiene un centro similar en la capital gala, duplicará su número de sus empleados y destinará otros 10 millones de euros de inversión.
No es el único movimiento en la compañía que dirige Mark Zuckerberg. El también francés Yann LeCun, una de las mentes más brillantes del sector, acaba de dejar su puesto a cargo de Facebook AI Research (FAIR), un grupo que ya cuenta con más de 130 expertos en varios lugares del mundo, para centrarse en su labor investigadora.
Además de ser uno de los ingenieros más reputados de la red social, LeCun se ha convertido en una de las figuras más críticas con los que, como Musk, imaginan un futuro de máquinas superinteligentes y malignas. “La inteligencia artificial tiene menos sentido común que una rata”, ha sentenciado el visionario de Facebook.
El genio de las máquinas que odia a Sophia
Aunque su cuerpo es de silicona, ya es ciudadana de Arabia Saudí, quiere destruir el mundo e incluso pretende tener hijos. En los últimos meses, Sophia, un robot humanoide semejante en sus facciones a una humana, ha dado mucho que hablar gracias a una buena campaña de marketing de sus creadores, los responsables de la compañía Hanson Robotics.
“Esto es a la inteligencia artificial lo que la prestidigitación es a la magia”, criticaba LeCun por Twitter. “En otras palabras, es una absoluta mierda [en inglés, bullshit]bullshit”. El prestigioso investigador denunciaba que “mucha gente esté siendo engañada” pensando que esa “marioneta animatrónica” tiene sentimientos, lo que perjudica “el entendimiento de la inteligencia artificial”.
Además, no ha dudado en culpar de ello a la prensa, algo que ya ha hecho en otras ocasiones: reprueba que se usen imágenes de Terminator en los artículos de inteligencia artificial, defiende que escenarios como los que dibujaba el famoso film no son realistas y no cree que la tecnología represente un peligro a corto y medio plazorepresente un peligro a corto y medio plazo.
Pese a que LeCun firmó hace unos meses, al igual que Musk, los 23 principios de Asilomar 23 principios de Asilomar—una carta del Instituto por el Futuro de la Vida en la que se defendían normas para lograr, entre otras cosas, que la “superinteligencia” tenga unos ideales éticos— critica posturas como la del fundador de Tesla o Stephen Hawking. “No estoy con ellos [....] En el caso de Musk, está muy interesado en las amenazas existenciales de la humanidad y es por eso que ha construido cohetes para ir a Marte en caso de que algo pase en la Tierra”.
De la misma opinión es su jefe. Zuckerberg calificaba hace unos meses como “irresponsable” que los “pesimistas” planteen “escenarios apocalípticos”. Un ofendido Musk respondió en Twitter diciendo que el conocimiento en la materia de Zuckerberg era “limitado”, pese a tener detrás a uno de los pesos pesados del campo.
Pero LeCun ya no es el único mandamás de los algoritmos en Facebook. Ahora dejará parte de sus funciones a Jérôme Pesenti, que asume un cargo recién creado, el de vicepresidente de inteligencia artificial de Facebook, y que además será el responsable de la división de machine learning aplicada, dirigida por el español Joaquín Quiñonero.
Pesenti no trabajaba en Facebook previamente, pero sí cuenta con gran experiencia en puestos de responsabilidad: fue el vicepresidente de Watson Platform, la plataforma de inteligencia artificial de IBM, y hasta hace unos días dirigía BenevolentAI, una startup británica valorada en 1.400 millones de libras (1.600 millones de euros) que usa algoritmos para extraer conocimiento de la información biomédica.
Este investigador defiende que la inteligencia artificial es un campo con capacidad para impulsar la economía, “crear trabajos” o “transformar cada industria” pese al “hype negativo” en torno a ella. hype
De hecho, ha sido el coautor de un amplio informe sobre el tema encargado por el Gobierno de Reino Unido en el que se defiende la necesidad de impulsar el sector y se aconseja la creación de un consejo de inteligencia artificial para supervisar la industria, sin hacer mención alguna a que el ámbito deba regularse como defiende el CEO de SpaceX.
Google, el laboratorio de las estrellas
A través de sus propios proyectos —como Google Brain, su laboratorio centrado en el aprendizaje profundo—, de adquisiciones de startups de inteligencia artificial —ha comprado una docena entre 2012 y 2017— y de la creación de centros de investigación en diferentes países del mundo —China incluida— Google está a la cabeza en la carrera de las máquinas. El propio Sundar Pichai ha asegurado que están dando prioridad a la inteligencia artificial, presente en casi todos sus productos.
Un enfoque que en alguna ocasión ha provocado un rifirrafe entre Musk y su amigo Larry Page, según ha confesado el primero: aunque el fundador de Google tenga buenas intenciones, podría desarrollar “una flota de robots con una inteligencia artificial mejorada capaces de destruir a la humanidad”.
El responsable de los algoritmos en Google tampoco parece compartir las tesis del CEO de SpaceX. “No estoy preocupado por el apocalipsis de la inteligencia artificial. Me opongo a las exageraciones y los comentarios que algunas personas están haciendo”, afirmaba recientemente John Giannandrea.
Vicepresidente de ingeniería de Google desde hace ocho años y máximo responsable de inteligencia artificial, una materia que él prefiere denominar “inteligencia de las máquinas”, defiende que su nivel intelectual de los robots ni siquiera se acerca al de un niño de cuatro años.
Las preocupaciones de Giannandrea son mucho más inmediatas que el desarrollo de un autómata superinteligente: considera que usar datos sesgados para entrenar los algoritmos sí puede ser un peligro. “Si alguien trata de venderte un sistema tipo caja negra como apoyo para una decisión médica, pero no sabes cómo funciona ni qué datos utilizaron para entrenarlo, yo no confiaría en él”.
El que sí parece pensar más en el futuro a medio plazo es otro de los mayores expertos que trabajan en la firma, Geoffrey HintonGeoffrey Hinton. Conocido como el “padrino de la inteligencia artificial”, este investigador británico sentó las bases del deep learning en 1986 al desarrollar un innovador algoritmo de aprendizaje para entrenar redes neuronales.
Catedrático emérito de la Universidad de Toronto, Google le fichó para dirigir el equipo de Brain en la ciudad canadiense en 2013, y desde entonces ha propuesto nuevos enfoques en el desarrollo de redes neuronales. Hace unos meses, Hinton firmó una carta dirigida a Justin Trudeau para reclamar el apoyo del primer ministro de Canadá a la prohibición de los llamados 'killer robots' (las armas letales autónomas) en Naciones Unidas, ya que “amenazan con convertirse en la tercera revolución de la guerra”.
Una petición similar encabezó Elon Musk, que rubricó, junto a otro centenar de fundadores de compañías tecnologías, una misiva dirigida a la organización internacional para frenar el avance de los robots asesinos. Pese a firmar esa carta, Hinton no piensa que los robots nos vayan esclavizar. “Los ordenadores con simuladores de redes neuronales y la gente trabajarán juntos. No creo que acabemos dominados por las máquinas y, si eso ocurre, será en un futuro muy lejano”, apuntaba en una entrevista hace unos meses, puntualizando además que es imposible hacer predicciones a más de cinco años vista.
El que sí se atreve a sacar la bola de cristal es otro de los gurús de Google, Raymond Kurzweil, director de ingeniería desde hace un lustro. A su juicio, el desarrollo de la inteligencia artificial nos traerá más beneficios que inconvenientes, aunque llegará un momento en que el homo sapiens quedará obsoleto.
Siguiendo sus vaticinios, en 2029 las máquinas serán tan inteligentes como los humanos, y en 2045 “multiplicaremos nuestra inteligencia efectiva mil millones de veces fusionándonos con la inteligencia que hemos creado”, un momento que define como singularidad.
Otra de las mentes más brillantes en el campo de la inteligencia artificial, y que también trabaja bajo el paraguas de Google, parece disentir con los pensamientos de Kurzweil. “Todavía estamos a décadas de la inteligencia artificial a nivel humano [....] Estamos en el primer peldaño. Estamos jugando”, ha defendido Demis Hassabis, fundador y CEO de DeepMind.
Precisamente un juego ha hecho famosa a esta compañía, que los de Mountain View adquirieron por la friolera de 500 millones de dólares (400 millones de euros al cambio actual). Su algoritmo AlphaGo ganó al campeón mundial del Go, un milenario pasatiempo de origen chino, en 2016, todo un hito en la historia de la inteligencia artificial.
Curiosamente, Elon Musk fue uno de los primeros inversores de DeepMind — argumentó que pretendía conseguir un “mejor entendimiento del progreso y los peligros” de la tecnología— y uno de sus referentes, Nick Bostrom, director del Instituto por el Futuro de la Humanidad de la Universidad de Oxford y evangelista de los riesgos que corremos los humanos si una máquina supera nuestras limitaciones, es asesor ético de la empresa. Aunque el propio Hassabis reconoce que hay “riesgos legítimos en los que deberíamos pensar”, no piensa que tengan que nada que ver con las máquinas superinteligentes de la ciencia ficción.
Las mentes pensantes de Microsoft o Tesla
Además de Facebook y Google, otra de las compañías que están apostando de forma decidida por la inteligencia artificial es Microsoft: su división de Inteligencia Artificial e Investigación ya cuenta con 8.000 trabajadores.8.000
Su responsable, Harry Shum, es un reputado investigador de visión artificial y lleva más de dos décadas trabajando en el gigante de Redmond. Hace solo unos días, Microsoft ha publicado The future computed,The future computed un libro escrito por él y Brad Smith, presidente de la firma, en el que abordan algunos de los debates fundamentales en torno a la inteligencia artificial.
A lo largo del volumen, defienden la necesidad de trabajar con Gobiernos, investigadores y sociedad civil para evitar los posibles peligros o reclaman una reflexión sobre una eventual reforma del mercado laboral. Los dos han vaticinado la forma que a su juicio tendrá la inteligencia artificial del futuro: un asistente digital que, con nuestro permiso, sabrá todo sobre nosotros y se convertirá en nuestro alter ego.alter ego
Satya Nadella también ha publicado recientemente un libro, Pulsa actualizar, en el que habla de esos desafíos e incluso menciona que Musk cree que podríamos convertirnos en mascotas de los robots. Sin embargo, el CEO de Microsoft no coincide con él. Rememorando una frase del pionero de la informática Alan Kay —“la mejor manera de predecir el futuro es inventarlo”— aboga por dejar de elucubrar sobre el porvenir de las máquinas y centrarse en crearlas de acuerdo a numerosos principios éticos.
Ahora bien, ¿cómo se enfrenta el propio Musk a los peligros de las máquinas en sus dominios? El hombre que quiere llevarnos a Marte donó hace tiempo diez millones de dólares (8,5 millones de euros) al mencionado Instituto por el Futuro de la Vida. Él mismo es asesor de su comité científico, junto a Nick Bostrom o el profesor Stuart Russell. Precisamente estos dos últimos habrían contagiado a Musk la preocupación porque las máquinas se conviertan en una suerte de rey Midas que nos destruya.
Además, el excéntrico magnate ha impulsado otra organización sin ánimo de lucro para desarrollar inteligencia artificial que “beneficie a la humanidad”, OpenAI. OpenAIPersiguiendo esa misión, Musk está logrando notables avances que poco tienen que ver con máquinas benevolentes (uno de sus algoritmos ha vencido a algunos de los mejores jugadores de Dota 2) y atrayendo a importantes investigadores del ámbito.
A Musk le está viniendo muy bien concentrar a jóvenes talentos en OpenAI. Uno de ellos, Andrej Karpathy, un joven y prometedor investigador que ha pasado por Google y en DeepMind,Andrej Karpathy acaba de dejar el laboratorio para asumir el cargo de director de inteligencia artificial de Tesla.
Poco se sabe de las opiniones de Karpathy sobre el futuro de las máquinas, pero lo que sí está claro es que su misión es mejorar los vehículos de la firma para lograr que sean autónomos. Su propio jefe ha reconocido que los trabajadores del sector del transporte serán los primeros que pierdan sus empleos, y se ha mostrado partidario de una renta básica universal para paliarlo. Una vez más, y al contrario que a muchas de las estrellas de la inteligencia artificial, a Musk le angustia el futuro.
-----------------------------
Las fotografías son propiedad, por orden de aparición, de Wikimedia Commons, TechCrunch, JD Lasica y Wikimedia Commons