Pocas cosas van quedando a nuestro alrededor que no dependan de ese 'algo' invisible y ubicuo llamado Internet y que se ha convertido en el motor del desarrollo tecnológico, económico y de las comunicaciones diarias de nuestra sociedad. Si esto es posible es porque Vinton Grey Cerf y Robert Khan desarrollaron en 1973 el protocolo TPC/IP, un lenguaje abierto pensado para “la innovación sin permiso, donde la gente puede probar todo lo que quiera en la red”, explica Cerf durante una charla en el campus de La Salle previa su investidura como Doctor Honoris Causa por la Universidad Ramón Llull.
Precisamente “la contribución de la gente” y el deseo de compartir información han hecho posible el gran desarrollo de Internet, reconoce quien lleva dedicado a este sistema de comunicación cerca de 50 años. “Participar en el grupo de trabajo del profesor Leonard Kleinrock, que conectó los primeros nodos de ARPANet —la predecesora de la Internet moderna— cambió completamente el resto de mi vida”.
Y así seguirá siendo porque a pesar de haber superado hace ya algunos años la edad de jubilación, y bajo expreso mandato del propio CEO de Google, lo tiene prohibido “hasta conseguir hacer llegar Internet a la otra mitad del Planeta que aún está desconectada”.
En el camino tiene otras preocupaciones que resolver, como la denominada“digital dark age”, una especie de apagón de conocimiento al que se enfrenta la sociedad digital si no se aborda la obsolescencia de formatos de los archivos y que incluso afecta al propio almacén de urls web, y en lo que ya se encuentra trabajando con Tim Berners-Lee porque si no “seremos el siglo invisible”.
En su sexta visita a España para recibir un reconocimiento de este tipo por parte de una universidad española, Cerf comparte con eldiario.es sus impresiones sobre la evolución de su creación, como padre de Internet pero también como vicepresidente de Google, así como sus temores como usuario en esta nueva Era de la Inteligencia Artificial.
¿Eran conscientes usted y Khan de la magnitud del sistema que estaban desarrollando?
Una respuesta trivial sería decir que no, pero no sería del todo cierto.Todas las cosas que se hacen hoy en día en cantidades masivas ya habíamos experimentado nosotros con ellas en los años 80: paquetes de voz y vídeo (como los de Youtube) a muy pequeña escala. En esos primeros días nos estábamos anticipando a lo que sería posible, por eso estábamos convencidos de que lo que estábamos construyendo era potencialmete un social media.
Así que sí, teníamos alguna idea de en qué se convertiría Internet y la esperanza de que el diseño que habíamos creado podría expandirse alrededor de todo el planeta y que todo el mundo tuviera acceso a él. Aunque ahí nos queda trabajo por hacer, ya que sólo el 50 por ciento de la población tiene acceso por el momento.
¿Y qué ha sido lo más sorprendente que ha visto suceder en 'su' Internet?
La primera gran sorpresa fue con la propia red, en 1988, cuando nos dimos cuenta del gran potencial comercial que tenía, por eso me esforcé en convencer al gobierno americano a probar un proyecto comercial dentro de Darpa, algo que en principio no estaba permitido.
La siguiente gran sorpresa fue en 1993 cuando Tim Berners-Lee publica su versión de la WWW y de repente Internet se ve como una revista, cada vez más gente empieza a estar interesada, a compartir información y se produce una gran avalancha de paginas web. Lo que más me impresionó en ese momento fue el deseo de la gente de compartir información sin ningún tipo de interés económico. Esta avalancha de contenido es la que ha forzado la propia evolución de Internet. Una de las consecuencias de ello, han sido las mejoras en la velocidad de búsqueda de información, había tanto contenido que la gente no podía encontrarlo.
Como suele ocurrir, la tecnología pasa cuando es posible que pase y las soluciones llegan cuando se necesitan. Y llegaron los motores de búsqueda, mi tercera gran sorpresa. Entonces había varios que empezaron incluso antes de la WWW: Archie de la Universidad McGill (Montreal), GoFor de la Universidad de Minessota, Altavista Digital Equipment Corporation, hasta que ya llegaron Yahoo, Google, Bing,...
El desarrollo de motores de búsqueda ha hecho que sea necesario tener unos modelos de negocio que sostengan estas infraestructuras. Fue entonces cuando llegamos a la conclusión de que la publicidad podía ser un buen método para hacer que los usuarios volvieran a utilizar la WWW y encontrar cosas en los buscadores. Y creo que fue un movimiento brillante por parte de Google encontrar este sistema gratuito para el usuario en el que puede utilizar gratuitamente las aplicaciones y otra persona paga por ello.
Hablemos de buscadores, estos sistemas de búsqueda están basados en algoritmos cada vez más refinados y predictivos, que ofrecen a cada usuario una información 'seleccionada' y personalizada decidiendo lo que cree que necesita en cada momento. ¿No cree que estos algoritmos 'inteligentes' condicionan, en cierto modo, la libertad al usuario y el acceso a la información?
Es un tema que lleva bastante tiempo a debate. En Google creemos que somos muy neutrales y nos esforzamos por que las respuestas que ofrecemos encajen lo máximo posible con las búsquedas del usuario.
Hay experimentos que hacemos por tema de orden de ránking que pueden afectar a que el algortitmo de alguien no funcione tan bien, pero eso no significa que manipulemos la información o se la vendamos a un tercero. No como las farmacéuticas que para esto son las peores. Obtienen información de las farmacias, que recolectan datos sobre las compras de sus clientes y lo comparten con quienes producen los medicamentos. Sin pedir ningún permiso para ello y ahí sí creo que está cruzando una linea. Pero mientras nosotros protejamos la información y no la utilicemos con fines anticompetencia, creo que es perfectamente válido.
Esa es precisamente la dicotomía Internet. De alguna manera se ha convertido en el principal sistema comercial actual, pese a haber nacido como una herramienta de libre acceso para todo el mundo...
No exactamente. En primer lugar comenzó como un proyecto militar y el departamento militar de los Estados Unidos pagaba por ello. A medida que expertos del mundo académicos empezaron a unirse al proyecto vieron sus otras potenciales aplicaciones. Los académicos son gente que simplemente comparten su información quid pro quo y eso ha llevado a la gente a pensar que lo diseñamos Internet para el libre intercambio de información, pero realmente a nosotros no nos importaba cuál fuera el modelo de negocio mientras los costes básicos estuvieran cubiertos.
Los buscadores y otras aplicaciones han llevado a la gente a pensar que Internet es gratis porque no tiene que pagar por utilizarlos, pero tiene que ser pagado, por lo que el modelo de negocio de terceros es muy atractivo. Desde ese momento muchos de los avances vienen de organizaciones comerciales como Google, Yahoo, Facebook,... El gran cambio se ha producido en el énfasis del uso de la información y creo que es el inicio de una etapa muy interesante.
Siempre supe que Internet generaría muchos modelos distintos de negocio. Y ahora estamos viendo otros modelos en los que la gente paga por acceder a servicios como por ejemplo el cloud de Amazon o Microsoft; al fin y al cabo es parte de las necesidades de Internet, que se paguen sus costes.
Incluso por esos servicios denominados gratuitos el usuario paga de alguna forma, por ejemplo con su información personal. ¿Está de acuerdo con quien asegura que los datos la nueva divisa de esta economía en red?
Creo que es un poco exagerado pero está claro que es parte necesaria para cualquier compañía que use la publicidad como modelo de negocio, dependen de la información que conocen de sus usuarios para adecuar los anuncios que les muestran. Sin embargo, hay gente que lo malinterpreta, y cree por ejemplo que en Google nos dedicamos a crear un dossier de los usuarios y venderlos a otras empresas y no es cierto. No lo necesitamos.
Lo que hacemos es utilizar 'pistas locales' para hacernos una idea de qué anuncios mostrarle al usuario. Cuando alguien lee su correo electrónico en Gmail nuestros ordenadores leen esos mensajes para descubrir si hay palabras que puedan ser luego asociadas con anuncios. Basando los anuncios en estas palabras de los correos electrónicos o en los términos de las búsquedas que hace en los buscadores, lo que queremos es ofrecerle al usuario la publicidad que más pueda interesarle.
Smartphones, ciudades inteligentes, coches autónomos, incluso tiene su bodega equipada con dispositivos para controlar sus botellas de vino. Superada la Era de Internet, estamos ya con un pie en la era de la Inteligenia Artificial.
Sí, la inteligencia artificial es de lo que habla ahora todo el mundo, queda por ver hacia donde avanza todo esto... Desde mi punto de vista la clave está en que los dispositivos que formen parte de este Internet de las Cosas sean diseñados para pertenecer a un sistema, para ser capaces de detectar que están recibiendo señales que reconocen y de partes autorizadas de las que pueden seguir órdenes, dar información o almacenarla.
La gente se bajará constantemente softwares y si no somos capaces de evaluar la procedencia de ese software o si se falsifica la firma podemos tener problemas. Los hackers podrán acceder fácilmente y hacer que todo deje de funcionar correctamente, o lo que es peor que funcionen bien mientras que hay pequeñas alteraciones de las que el usuario no se da ni cuenta.
Imagina un titular que diga: '100.000 frigoríficos se apoderan del Banco de América'. En realidad no es nada desorbitado porque los dispositivos conectados si son accesibles pueden ser programados para hacer cosas malas sin que nos demos cuenta. Así que el reto más importante es encontrar la forma en la que los dispositivos no puedan ser penetrados y controlados por partes no autorizadas.
Y otra de sus preocupaciones confesas es con respecto a la neutralidad de red, que recientemente se ha cobrado una pequeña victoria con una sentencia a favor de la FCC, la agencia que regula las comunicaciones en Estados Unidos, por la que Internet se considerará un servicio público. ¿Es tan preocupante el tema como parece?
Depende de en qué país estés. La neutralidad de red para mí es la forma de evitar prácticas anticompetencia y creo que en Estados Unidos es necesario que se imponga su protección, para asegurar que no se producen malas prácticas por parte de alguien que tenga muy pocos competidores.
Pero en otros países puede significar algo completamente distinto y en lo que respecta a Europa no sé exactamente que rol puede jugar en la ecuación.
Por otro lado vemos movimientos entre los grandes actores de la industria hacia la creación de sus propias infraestructuras y servicios, como Google Fiber o el recientemente anunciado cable submarino Marea proyectado por Facebook, Microsoft y Telefónica.
La mayoría de las empresas están creando sus propias infraestructuras por una cuestión de capacidad, lo necesitan para gestionar su propio funcionamiento. La mayoría de infraestructuras que hacemos en Google es para gestión interna de datos, otros son destinados a los consumidores como Google Fiber, pero la mayoría de inversiones, especialmente en cables submarinos, tienen la finalidad de conectar nuestros centros de datos y no para proveer de mayor capacidad a los usuarios. Si bien estamos interesados en este tipo de infraestructuras también.
Y en otras infraestructuras interplanetarias. ¿Qué planes de aplicación tiene su proyecto de InterplanetaryNet?
Cierto, es un proyecto que comenzó en 1998, ya está en funcionamiento y en 2020 espero que se amplíe. Utiliza protocolos muy interesantes que funcionarán también en la Tierra. Si tienes un entorno en el que no hay radio conectividad, los protocolos del InterplanetaryNet son muy buenos diciendo: ‘no puedo llegar al siguiente link, voy a guardar los datos hasta que consiga conexión’. Lo que le diferencia del protocolo TCP/IP es que si no puede pasar al siguiente nivel, tira los datos.
Así que es una forma de evitar tener que retransmitirlos, por lo que tendrá muchas posibilidades incluso aquí en la Tierra donde la conectividad aunque es bastante buena y los enlaces conectan fácilmente, sigue habiendo problemas con los móviles que se desconectan, por señal de radio débil o no hay mucha cobertura. La red interplanetaria soluciona ese problema porque retiene el data hasta que el link está disponible.
Y si esto es posible ahora y no hace 30 años es porque ahora es barato hacerlo.Tenemos la expectativa de que el protocolo interplanetario sea un disruptor de entornos en la Tierra, especialmente en el entorno de los móviles,y se convierta en algo tan común como el IP6.
Precisamente el protocolo que desarrolló junto a Khan, podría decirse que estaba hecho a ‘prueba de futuro’. En tres décadas no ha tenido competidor o sustituto.
En cierta manera es así. Lo que ha hecho es ir evolucionando, de muchas formas que puede no sean perceptibles a primera vista. Vamos por la versión 6 del TCP/IP, hemos cambiado el sistema de dominios para incluir otros caracteres,... Pero es cierto que la arquitectura básica de Internet no ha cambiado, y creo que es algo positivo porque aporta estabilidad, cualquiera puede crear sus aplicaciones con la confianza de que los protocolos centrales no van a modificarse apenas. Aunque se están explorando otros protocolos, no necesariamente incompatibles...
Yo lo que creo es que algún día Internet será sustituido por otra cosa, no sé exactamente qué. Pero sea lo que sea, espero que, por lo menos, sea algo más barato y rápido.