Google se acaba de poner a la cabeza en la carrera por controlar dispositivos electrónicos de forma remota sin más instrumento que nuestro propio cuerpo. En 2015, la compañía presentó una tecnología capaz de responder a movimientos gestuales de las manos por medio de un radar. La bautizó Proyecto Soli y lanzó la idea al mercado, pero no ha sido hasta el último día de 2018 cuando ha recibido el permiso oficial de EEUU para desarrollarla.
Cuando lanzó el proyecto, Google pretendía que los usuarios se maravillaran con poder bajar el volumen de su televisión inteligente deslizando el dedo por el aire o accediendo a las aplicaciones de su smartwatch frotando el pulgar por el lateral del dedo índice, como ilustran estas imágenes de la publicación tecnológica The Verge, pero el desarrollo de una conexión de este tipo requiere de regulaciones específicas.
La interacción se desarrolla a través de un chip que se inserta en el mecanismo del elemento electrónico: un reloj inteligente, un teléfono móvil, una tablet, etc. Este detecta mediante un sistema de radar los gestos que se realizan próximos al dispositivo, requiere que estos se hagan a corta distancia. Parecido a manejar un pad invisible formado con los dedos, en vez de presionar directamente la pantalla.
El principal problema que afrontó la división de Tecnología y Proyectos Avanzados (ATAP por sus siglas en inglés) de Google a la hora de trabajar en las tecnicidades de Soli fue que la frecuencia del radar que habían instalado no era lo suficientemente potente para que un gesto rápido como un chasquido de dedos o un giro de muñeca fuese perceptible para el dispositivo. Ahora, la Comisión Federal de Comunicaciones (FCC) de EEUU ha dado luz verde para que la tecnológica opere con sensores de mayor potencia y mejoren el sistema.
Con el nuevo rango de frecuencias permitido (se ha autorizado a la multinacional a operar entre 57 y 64 gigahercios), el radar podría captar los movimientos no solo a través del hardware del teléfono sino de otro tipo de materiales, como el de la ropa o una mochila.
Esta potencialidad no ha pasado desapercibida para otros gigantes del sector. Cuando Google pidió a la FCC en marzo del pasado año que le concediera una licencia para no dejar atrás el proyecto y explotar el espectro, Facebook presentó una queja asegurando que podría causar interferencias en el modo en el que operan tecnologías actuales. Entonces, Google redujo un poco las exigencias y la empresa de Mark Zuckerberg accedió a no oponerse a la petición.
La FCC ha aprobado la continuación porque considera que su desarrollo “servirá al interés público al otorgar características de control innovadoras que funcionan por medio de tecnologías gestuales, sin necesidad de tacto”, según consta en el documento en el que especifican las características permitidas.
En palabras de Ivan Poupyrev, desarrollador de Soli en ATAP , “si puedes poner algo en un reloj inteligente, lo puedes poner en cualquier parte”, en referencia al diminuto chip que contiene el software. Para el ingeniero, “las manos son precisas, rápidas”, por lo que “capturar sus posibilidades” y aplicarlas al Internet de las Cosas (IoT) está entre “los mayores avances” de su división.
No obstante, la tecnológica no ha presentado detalles por el momento de las especificaciones que se implantarían en ese tipo de hardware; la última exposición de los avances fue en 2016. En esta nueva fase, surgen preguntas en torno al radio de monitorización del proyecto: si con un chasquido de dedos se puede activar un reloj inteligente o bloquear el volumen de unos altavoces, queda pendiente conocer el tiempo que estará permanecerá activa esta función.
El IoT pone al alcance de numerosos dispositivos personales una cantidad de datos asombrosa, a la que Google pretende añadir aspectos del mundo tridimensional, del que ya cuentan con la voz y los datos biométricos.