La portada de mañana
Acceder
16 grandes ciudades no están en el sistema VioGén
El Gobierno estudia excluir a los ultraderechistas de la acusación popular
OPINIÓN | 'Este año tampoco', por Antón Losada

“Es brillante cómo las apps han usado la neurociencia para hacernos adictos”

“Todo el mundo puede entender que aunque seamos capaces de clonar un ser humano, éticamente no es adecuado hacerlo. Hay sistemas de Inteligencia Artificial con los que pasa lo mismo, pero nadie está reflexionando sobre ello”, advierte Paloma Llaneza. Abogada, auditora de sistemas y experta en ciberseguridad, sus razonamientos tienden a acumular metáforas que, aunque inusitadas, resumen con precisión debates complejos, como la de la panceta y la privacidad digital: “Igual que hay que hacer un esfuerzo del córtex prefrontal para resistir a caer en las garras de la grasaza, con las apps pasa lo mismo. Son verdaderas máquinas de hacernos adictos”.

Para explicar de forma sencilla algunos de esos debates, Llaneza acaba de lanzar Datanomics, todos los datos personales que das sin darte cuenta y todo lo que hacen las empresas con ellos (Deusto). Una historia del cómo hemos llegado hasta aquí, por qué “es mucho más importante ese pequeño dato que das de lo que tú te crees que es” y como su cesión “impacta en la sociedad, en nuestras relaciones personales, impacta en el modelo político”, que resume en entrevista con eldiario.es.

Llevamos un año informando casi diariamente sobre las malas prácticas de Facebook. Mientras, se multiplican los avisos sobre las herramientas gratuitas que basan su modelo de negocio en el minado de datos personales. Pero cada vez tienen más usuarios. ¿En qué nos estamos equivocando?

Es como si estuviéramos hablando con un cardiólgo y nos dijera: ¿en qué nos hemos equivocado si llevamos 30 años diciéndole a la gente que no se ponga hasta arriba de torreznos y resulta que la gente se sigue muriendo de ataques al corazón? El problema es que el cerebro humano funciona de una manera muy curiosa, siempre pensando en la recompensa inmediata. Cuando te ponen delante un producto adictivo, es muy complicado pensar a medio plazo. Porque el usuario piensa: sí, vale, es muy bueno comer verdura, pero hoy me voy a meter este bocata de panceta que está delicioso. Y ya a lo mejor este fin de semana corro un poco. Con la privacidad pasa un poco lo mismo.

Igual que hay que hacer un esfuerzo del córtex prefrontal para resistirse a caer en las garras de la grasaza, con las apps pasa lo mismo. Son verdaderas máquinas de hacernos adictos. Hay toda una tecnología de la adicción detrás del funcionamiento de todas las aplicaciones y servicios que usamos, es brillante cómo han utilizado la neurociencia para volvernos adictos.

Esa adicción nos lleva a tener la necesidad de entrar, ver las notificaciones, mandar un mensaje, ver qué ha dicho mi red, contestar a esta alerta que me ha llegado, sin pensar en el medio plazo de la recogida de datos.

¿La motivación del libro es ayudarnos a entender mejor el proceso que nos lleva a ceder nuestros datos?

Soy abogada, me dedico a la tecnología, y creo que la tecnología debe estar al servicio del ser humano, no es un imperativo categórico ni es un hecho de la naturaleza que tenga que imponernos al ser humano como vivir, sino al contrario, es una utilidad.

En el sistema de computación clásico, los datos eran como un subproducto. Pero el subproducto de la computación se ha convertido en un producto en sí mismo, en un negocio. Nos hemos visto en la caza de ese producto, en la provocación para que la gente lo facilite y luego en una aceptación impensada de cómo esto impacta en la sociedad, en nuestras relaciones personales, en el modelo político.

Siendo un tema... que a nadie le gusta escuchar (se suele pensar ya vienen los pesados de la privacidad), pensé en ver si era capaz de contarlo de tal manera que, siguiendo un cierto relato lógico que hay dentro del libro, te vayas dando cuenta de que es mucho más importante ese pequeño dato que das de lo que tú te crees que es.

No ayuda que a veces la tecnología se acepte de forma acrítica y casi como una fe religiosa.

Efectivamente así es como se percibe, pero no es así en realidad. Noah Harari lo comenta, y lo incluyo en el libro, que estamos en el dataísmo, la tecnología como una nueva religión. Y es muy sencillo hacerte adepto a ella porque te facilita la vida de una forma extraordinaria.

Lo que no te cuentan los que te ofrecen esta tecnología que hace las cosas tan sencillas es que está pensada al mismo tiempo para llevarse la mayor cantidad de recursos posible de ti.

A todos los que criticamos estas actitudes nos llaman luditas, dicen que vamos en contra del progreso, etc. No es cierto. Yo creo en el progreso. Pero creo que todo el mundo puede entender que aunque seamos capaces de clonar un ser humano, éticamente no es adecuado hacerlo. En la tecnología pasa lo mismo. Una cosa es que se pueda hacer y otra cosa es que se deba de hacer.

¿Falta ética en el desarrollo de nueva tecnología?

El argumento ético, como parte del funcionamiento de nuestras propias normas de convivencia, pero también como un argumento democrático, tiene que estar en el diseño tecnológico. La tecnología no es un tsunami, no es algo que se nos haya venido encima sin que hayamos podido hacer nada al respecto y lo debamos aceptar resignadamente. La tecnología la hemos diseñado para hacer algo. Si eso que hace tiene efectos indeseados, quitémoselos, revisemos esa tecnología, pongámosle límites y hagamos que esté al servicio del ser humano.

¿Quién está haciendo esa reflexión ahora mismo?

¡Nadie!

¿Quién debería hacerla? Si lo hace el Gobierno, me temo que la crítica sobre que está atacando el progreso sería inevitable.

El problema es que vivimos de titulares de Twitter, no de reflexiones. A lo mejor necesitamos gobiernos lo suficientemente valientes como para entrar en los debates que hacen falta, no en los debates fútiles para ganar la siguiente elección, que es en el mundo en el que estamos ahora.

También es una misión nuestra como sociedad civil, tenemos que ser capaces de organizarnos y de poner en la agenda esta discusión. Es una responsabilidad que tenemos, y a lo mejor es otro de los motivos de escribir este libro: decir oiga mire, es posible abrazar la tecnología y al mismo tiempo discutir si se está usando correctamente. La academia está hablando mucho del tema, las universidades, incluso las de psicología, están viendo cómo funciona el sesgo, sobre todo en la aplicación en Inteligencia Artificial.

Creo que nos hacen falta menos postureos desde lo público, y más un debate en el sentido de: miren, yo no vengo a cercenar la independencia de nadie, pero es que desde un punto de vista de normas de competencia no tiene sentido que una empresa tenga este tamaño, tenga esta capacidad de influir en el mercado, tenga este número enorme de usuarios y no le haya tocado usted un pelo en 20 años.

¿Queda alguna argumentación posible en contra de que Google o Facebook ejercen monopolios?

Con muchas technicalities, podría. Yo lo que creo es que las normas de competencia tienen que cambiar. Se van despertando las conciencias, la autoridad alemana y la de EEUU están negociando multas muy importantes a Facebook por las fugas de datos, las cuentas hackeadas y las prácticas que dieron pie a que ocurriera un caso como el de Cambridge Analytica.

El problema es que son tan complejas estas entidades y su funcionamiento es tan opaco, que los reguladores se ven bastante perdidos a la hora de tomar decisiones.

Inteligencia Artifical. ¿Qué le viene a la cabeza?

Me gusta mucho el cine, así que me viene Hal y las grandes y malvadas Inteligencias Artificiales que han venido a matarnos. Pero pensándolo de manera más sosegada, me vienen a la cabeza unos artefactos tremendamente interesantes que pueden traer tremendas alegrías a la humanidad pero que me temo que, de nuevo, tienen el riesgo de ser usados de una manera incorrecta. Me da pena que de nuevo estemos llegando tarde a incorporar el modelo ético a la Inteligencia Artifical.

En muchas conferencias de Inteligencia Artificial de algunos gurús importantes, cuando hablan de cómo modelizan sus redes neuronales para que combatan entre sí, para inventarse caras, y este tipo de cosas, te cuentan ilusionados todo lo que han hecho... y tú dices bueno ya, y la cuestión ética de que tú puedas hacer pasar por Obama a una persona que no es Obama y que la presentes diciendo fake news y tal, toda esa parte, ¿en qué punto del proceso te has planteado la cuestión ética?

Ellos responden: “No, no, ya con los abogados y los éticos hablaremos luego”. ¡Hablaremos luego no! ¿Cómo es posible que no te lo hayas planteado desde el principio? Pues es posible porque como le vas a quitar su juguete a alguien que está tan encantado. Pero muchos de los modelos que salen no deberían de salir, y si hubiera un comité ético o alguien que se lo planteara desde el principio la pregunta debería ser: ¿de verdad esto es necesario?

Como lo que comentaba acerca de clonar humanos.

Exacto. Hay sistemas de Inteligencia Artificial con los que pasa lo mismo, pero nadie está reflexionando sobre ello.

En el libro comenta que una de las amenazas de la industria del dato es que avanza hacia la profecía autocumplida. ¿En qué consiste?

Es ese bucle en el que un sistema basado en datos predice que te vas a comportar de una determinada manera y eso acaba sucediendo por la influencia del propio sistema. Aunque tú realmente no te fueras a comportar de esa determinada manera, como hay una toma de decisiones sobre esa expectativa que se realiza sobre ti, al final la expectativa se cumple.

¿Este modelo de toma de decisiones basado en datos puede tener sesgos? ¿Hay diferencias entre clases sociales, por ejemplo?

Hay una cosa que es clara, la gente con más capacidad económica deja menos huella digital.

¿Eso les beneficia?

Obviamente. Tienen un uso menos extensivo de este tipo de tecnologías. Sobre todo porque hay unos teléfonos que son más respetuosos con la privacidad que otros y por lo tanto, ahí ya están protegiendo más su privacidad.

Y son más caros.

Sí.

¿Hay más sesgos en los sistemas basados en datos?

Puedes verlos todos los días. El otro día discutíamos en Twitter, no le quisimos dar más importancia, pero en Infojobs, si le quitas el sexo a una determinada búsqueda, pues resulta que en unas te ofrecen ser secretaria y en la otra te ofrecen ser jefe.

Esos sesgos ya existen. Infojobs dijo que ellos tienen un filtro colaborativo. Explícame que es un filtro colaborativo: ¿lo que quieres decir es que permites a los usuarios que sesguen y tu levantas las manos del teclado y dejas que ese sesgo quede ahí? Eso me vale lo mismo a que reconozcas que tienes ofertas sesgadas por sexo.

¿Es casi peor no?

Es casi peor. Pero claro, estas plataformas legalmente se basan en el concepto de que ellas te dan la plataforma pero no intervienen, porque así no son responsables. Es de donde vienen también buena parte de los males de Facebook, por ejemplo.

¿Y quién es el responsable de que un sistema funcione mal?

¡El usuario! ¡siempre el usuario! La culpa la tienes tú, que lo sepas [ríe].

¿Cómo cambiamos esa lógica?

Diciendo claramente que Facebook, desde el momento que cura los datos y selecciona lo que yo veo, no puede decir que la culpa es mía.

Para saber manejarse en todo este embrollo hacen falta un montón de conceptos. ¿Dónde los encontraremos? ¿En la escuela?

En la escuela hay que educar a la gente en derecho, en economía y en tecnología, tres elementos fundamentales en los que no se educa. Si no eres un ser político, ya me dirás como vas a ejercer tus derechos políticos cuando crezcas.