Judith Sáinz-Pardo, investigadora: “Nuestro móvil nos conoce mejor que nosotros mismos”

La privacidad ha dejado de existir. Lo íntimo es cada vez un territorio más público. Nuestro teléfono nos escucha, el gran hermano tecnológico adivina cómo pensamos y lo que nos gusta a través de los likes que damos en las redes sociales o de nuestras búsquedas en internet. Es casi imposible protegerse. Incluso en el ámbito privado del hogar estamos constantemente vigilados por sensores y aparatos que disponen de información sobre nuestros hábitos. El aspirador robot tiene un mapa de nuestra casa. El sistema de alarma nos protege de que un extraño entre en nuestra vivienda a cambio de conocer al milímetro cada uno de nuestros movimientos, horarios, costumbres y quién nos visita. Informaciones y datos que almacena y alimenta una memoria gigantesca que guarda un historial completo de nosotros mismos.
La matemática Judith Sáinz-Pardo es una de las investigadoras del Grupo de Computación Avanzada y E-Ciencia del Instituto de Física de Cantabria (IFCA), centro mixto del CSIC y la Universidad de Cantabria (UC). Es una científica de 26 años que trabaja en la protección de datos ante el uso de la inteligencia artificial y que, además, destaca por su vocación divulgativa.
¿Realmente el teléfono móvil nos escucha?
Es la pregunta del millón. En la Unión Europea tenemos el reglamento general de protección y nuestra privacidad sí que está garantizada, así debería ser. Si pensamos en asistentes inteligentes, como Siri en Apple, se activa cuando tú dices: “Oye, Siri”. Así que de una forma u otra tiene que escuchar para saber cuándo tiene que activarse al oír las palabras mágicas. ¿Qué está haciendo hasta que dices 'oye, Siri'? La teoría es que hace una escucha pasiva y eso no se va a transmitir, no va a salir de tu móvil y no se queda guardado, ni va a ninguna parte. Hay leyes que así lo garantizan. Solo escucha a partir de que tú le pidas que haga algo.
Pero si hablamos sobre un tema o un producto con alguien inmediatamente nos aparecen anuncios sobre ello...
Ahí lo que pasa es que probablemente no solo has hablado, sino que has buscado y cuando haces una búsqueda en internet te va a salir por la publicidad, no porque te haya escuchado el móvil. Brechas de seguridad puede haber, pero eso no debería pasar. Para eso hay leyes que nos protegen...
Cuando adquirimos un móvil o utilizamos aplicaciones de mensajería, ¿tenemos que tener una precaución especial con lo que autorizamos?
Con todo lo que consentimos. El móvil nos podrá escuchar si le das permiso al micrófono, que se lo das para ciertas cosas, como enviar un audio en WhatsApp, pero le das permiso mientras lo estás usando. En WhatsApp tenemos lo que nos parece cuando empiezas un chat de cifrado de extremo a extremo, que indica que eso es una comunicación cifrada, que lo puede leer el emisor y el receptor. Tenemos esa garantía. Sin embargo, en temas de Inteligencia Artificial, como puede ser el ChatGPT, es importante ir a la política de privacidad y ver lo que dice sobre la información que compartes. Todo esto que se ha puesto de moda de subir una fotografía para que la pase a estilo Ghibli, por ejemplo, ahí sí que la estás subiendo a un servidor y te están diciendo que eso servirá para mejorar los algoritmos. Pierdes el control de tu información. Esa fotografía puede contener información geolocalizada de dónde tomaste la imagen, desde qué móvil tomaste la imagen. Esa información está en los propios datos que subes con ella.
¿Eso sucede también en las redes sociales?
Las redes sociales tienen una política de privacidad que sigue una normativa. Clearview AI cogió datos de redes sociales para mejorar sus sistemas de reconocimiento facial. Si son datos disponibles, la Unión Europea aplica el reglamento de que son personas físicas identificadas e identificables, pero fuera de Europa no hay ese reglamento, así que con las imágenes que se suben pueden ser en algunos casos susceptibles de que no se les aplique ese tratamiento.

Pensamos que no usamos IA pero no es así. En casa nos sentimos más seguros, aunque ya no son un espacio tan íntimo porque tenemos aparatos que funcionan plenamente con Inteligencia Artificial.
Son aparatos que nos hacen la vida más fácil con las restricciones de privacidades. Hay gente que dice: “Yo no uso la IA porque no uso ChatGPT”, pero es que a la Inteligencia Artificial está en todas partes, no se le puede poner puertas al campo. Ha venido para quedarse. Está en los electrodomésticos, relojes y asistentes inteligentes como Siri o Alexa que, además, pueden relacionarse entre sí. El asistente virtual puede encender la calefacción a la hora que le digas, por ejemplo. Las aspiradoras inteligentes son otro ejemplo. Mucha gente no es consciente de que detrás de esos robots hay inteligencia artificial, un modelo de IA que es capaz de saber si está sobre un suelo de parqué o sobre una alfombra. Muchas veces hacen un mapa de la casa para saber dónde tienen que limpiar. En todo caso, se ceden unos datos que quedan almacenados. Es importante que la gente sepa que trabajamos en ciencia también para aportar privacidad al desarrollo de la IA, porque ahora mismo es clave que el desarrollo de lo que hacemos tenga el foco puesto en la privacidad de los datos que estamos usando. Si hacemos aplicaciones de IA para mejorar el diagnóstico médico, por ejemplo, queremos ayudar a los médicos a que tengan una herramienta que les pueda asistir a hacer ese diagnóstico. Cuando construyamos esos modelos tenemos que tener en mente que para entrenar a esa IA estamos utilizando datos que son de personas, datos sensibles. La materia prima es el dato y hay que poner el foco en la privacidad.
Para entrenar a esa IA estamos utilizando datos que son de personas, datos sensibles. La materia prima es el dato y hay que poner el foco en la privacidad
La investigación que desarrolla se centra precisamente en este campo: la privacidad en la Inteligencia Artificial.
Tenemos múltiples proyectos de aplicar IA a soluciones en ciencia. En especial en ciencia abierta, que le dé un valor a la sociedad. Esas aplicaciones pueden ir desde el clima hasta monitorear la calidad del agua para saber si es apta para el consumo humano. Puede ir desde facilitarles esa tarea a las personas que están tomando las muestras hasta el diagnóstico médico. Tenemos que aplicar los algoritmos y, a veces, tenemos restricciones de privacidad sobre los datos. Un ejemplo muy sencillo: a veces en un hospital no te dan los datos y te piden que entrenes al modelo sin que los datos salgan de ciertos sitios haciendo protocolos seguros para entrenamientos, haciendo protocolos colaborativos. Por ejemplo, entre tres hospitales de tres lugares diferentes puede haber restricciones que no les permitan compartir sus datos. Una de las cosas en las que trabajamos es en hacer algoritmos que sean capaces de entrenar entre distintas fuentes de datos sin que se hayan juntado.
¿Todos los ciudadanos formamos parte de ese campo de entrenamiento de la IA?
Somos los que estamos generando los datos en todo momento: cada vez que haces un clic y navegas, que eso es otro ejemplo de inteligencia artificial, cuando navegas por internet estás generando una huella digital que luego probablemente va a derivar en redes sociales. Si tú navegas y das un clic, un 'me gusta', si comentas ciertas publicaciones, probablemente luego la publicidad personalizada te va a recomendar ese tipo de cuestiones sobre las que han interactuado. Es lo que tenemos en el día a día que alimentamos nosotros dándole datos. Como las plataformas de streaming que recomiendan series, que hemos alimentado nosotros. Con las series que hemos ido viendo cómo se construye un perfil y en función de eso nos hacen recomendaciones que supuestamente nos facilitan la vida a la hora también de escuchar música: 'esto probablemente te va a gustar'.
¿Nuestro móvil nos conoce mejor que nosotros mismos?
No hace falta que el móvil nos escuche para saber, para conocernos, porque le usamos constantemente. Efectivamente, nuestro móvil nos conoce mejor que nosotros mismos. Como en los teclados predictivos: sabe qué recomendarnos porque probablemente has escrito un montón de veces las mismas frases. El móvil predice los que con más probabilidad vamos a decir en un mensaje. El móvil nos conoce en el sentido que le hemos alimentado con nuestros datos, nos hace la vida más fácil, pero tenemos que ser conscientes de lo que cedemos a cambio.
El móvil nos conoce en el sentido que le hemos alimentado con nuestros datos, nos hace la vida más fácil, pero tenemos que ser conscientes de lo que cedemos a cambio
El buscador de internet y las plataformas digitales nos hacen recomendaciones en función de nuestros gustos previos. Esto funciona también con la información. ¿El algoritmo provoca que solo veamos lo que queremos ver?
Es lo que llamamos el filtro de burbuja. Dicho a grandes rasgos es como esa forma de 'isolarnos', de aislarnos en la propia burbuja de información. Si solo consumo determinada información de un tipo de ideología, por ejemplo, probablemente solo se me va a mostrar ese tipo de información porque la que sea contraria no me va a interesar, no voy a interactuar con ella, no lo voy a leer. Eso va haciendo que te vayas quedando en esa burbuja de la información con la que empezaste a interactuar y es difícil que te recomienden otras cosas, otros medios de comunicación.
Si el hombre es el único animal que tropieza dos veces con la misma piedra, ¿la inteligencia artificial también puede equivocarse o es más lista que nosotros?
La IA lo que hace es aprender. Su definición clásica es: cuando queremos hacer que las máquinas tengan capacidad e inteligencia para desarrollar tareas que hacemos los humanos como puede ser que clasifique, por ejemplo, las radiografías en un hospital para detectar patologías... ¿Cómo aprenden las personas a clasificar esas imágenes, a saber en qué radiografía se ve una neumonía? Porque ha visto muchas y aprende a distinguir y es capaz de visualizar determinadas patologías en esa imagen. Dentro de la IA hay una rama que es el aprendizaje automático, machine learning, para que las máquinas tengan esa capacidad de aprendizaje, que sean capaces de aprender en base a unos datos. Después hay un aprendizaje profundo, simulando la forma de aprendizaje de los humanos, tenemos lo que llamamos redes neuronales artificiales. Lo importante es que tengamos datos que alimenten esos modelos para que aprendan, igual que nosotros. Al final son modelos matemáticos: podemos cuantificar cómo está funcionando de bien o de mal, penalizarle si lo hace mal, entrenarlo con más datos si es necesario.
¿Qué sucede cuando una IA nos conduce a un error?
Eso está relacionado con los chatbots y lo llamamos 'alucinaciones', cuando le preguntamos por una información y se lo inventa porque le falta ese dato. Hay que pensar en cómo funcionan, que es ir generando texto. Hacen un procesamiento del lenguaje natural, de lo que tú les has pedido. Tiene una parte de pensar, si lo pueden buscar en internet tendrán mayor o menos información, pero si no tiene una información a veces limitada. A lo mejor el modelo se entrenó con datos hasta 2020 entonces puede que 'alucine' y se invente alguna cosa. No es que lo invente a propósito, es que le falta información. Por eso es muy importante que se contraste todo lo que preguntamos, sobre todo cuando es información relevante.

Hace tiempo se empezaron a colocar miles de sensores en las calles, en Santander en concreto alrededor de un proyecto llamado 'smartcity'. ¿Para qué sirven concretamente, para qué se utilizan nuestros datos?
Los sensores puestos en producción y con un correcto funcionamiento serían muy útiles. Por ejemplo, para detectar un hueco de aparcamiento libre en una calle sin que tengas que dar vueltas con el coche. Eso sería muy útil. Otros sistemas, que en España no tenemos por regulación, pero que en otros países han sido bastante polémicos, son los que tienen que ver con el reconocimiento facial en las calles, para saber que alguien está en tal sitio. Para temas de vigilancia masiva. Eso es muy peligroso. Pero el reconocimiento facial es es muy útil cuando vas al aeropuerto y pasas el pasaporte, te escanean la cara, te reconocen y te ahorras toda la cola. ¿Eso cómo lo hace? Pues es un modelo de aprendizaje profundo en el que ha visto muchas imágenes y aprende a reconocer que tú eres el de la foto. Pero cuando eso se utiliza para temas de vigilancia masiva en la calles, por ejemplo, es muy, muy peligroso. Ahí entra la ética.
¿Esos datos para qué los quieren las empresas? ¿Qué necesitan saber de nosotros?
Depende de los datos que se recopilen. Los relojes inteligentes a veces son muy baratos. Lo compras, te descargas la aplicación relativa al reloj y esos datos que estás generando cuando vas a correr son capaces de saber de indicar desde qué punto has salido, a qué velocidad. Monitorizan el sueño, nuestros patrones, pueden detectar pulsaciones, ritmo cardiaco, si estás teniendo un problema de salud. Si esos datos se ceden a una empresa de seguros de vida o de salud, para tener esa personalización del usuario, al milímetro, para saber todo sobre ti. Es decir, con fines comerciales. Cuando pagamos muy poco por un reloj inteligente, por ejemplo, nos tenemos que cuestionar qué estamos dando a cambio. En cualquier caso la ciencia de datos se ha convertido en una herramienta esencial para muchas áreas de investigación. Es muy difícil hacer ciencia y encontrar un área en el que no se esté utilizando la IA. El método científico básico empieza por observar, recabar información, datos, y esos datos son siempre susceptibles de entrar en un modelo de inteligencia artificial. Raro es el día que pones el informativo en televisión y no aparece el término Inteligencia Artificial a menudo vinculado a noticias negativas, como estafas en las que suplantan la identidad. Pero los avances son innegables en muchos campos y automatizan y agilizan tareas que antes llevaban más tiempo y esfuerzo. Es una herramienta que asiste y ayuda a tomar decisiones en el campo médico, por ejemplo.
1