José Luis Piñar es una de esas personas que han estado presentes en la adaptación de los derechos fundamentales al terreno digital casi desde el principio. Fue uno de los primeros presidentes de la Agencia Española de Protección de Datos, ostenta la cátedra Google sobre Privacidad, Sociedad e Innovación de la Universidad CEU-San Pablo y colaboró en la redacción de la carta de derechos digitales que el Gobierno presentó como una de sus medidas estrella en este campo.
En la actualidad también es patrono del Instituto Hermes, una fundación dedicada a proteger los derechos digitales. En esta entrevista con elDiario.es, el investigador destaca que uno de ellos, a veces olvidado, debe ser el no ser discriminado por esa sociedad cada vez más automatizada: “Hay que garantizar el derecho a que puedan seguir existiendo relaciones humanas con las administraciones, con los bancos, con las compañías de seguros, con los comercios, precisamente para garantizar la calidad de vida de quienes no puedan o no quieran ser digitales”.
¿Qué opina de las críticas que recibió la carta de derechos digitales que decía que no son necesarios nuevos derechos sino defender los que ya existen?
Para responder quizá hay que tener antes en cuenta la naturaleza de la carta. La carta no tiene valor normativo, es sólo una declaración de intenciones, una hoja de ruta. Pero claro, si el presidente del Gobierno la presenta solemnemente acompañado por una vicepresidenta y dos ministras, lo que quiere decir es que el Gobierno asume como propio ese compromiso. Un compromiso que además coincide con uno muy semejante que había asumido en su momento el Partido Popular, cuando José María Lassalle [secretario de Estado de Agenda Digital de 2016 a 2018] puso en marcha un grupo de trabajo para elaborar una carta de derechos digitales. Con lo cual, si el Gobierno por un lado y el Partido Popular por otro han asumido ese compromiso, quiere decir que vamos por buen camino.
Lo que se pretende no es regular nuevos derechos, sino adaptar los derechos existentes al entorno digital. Es cierto que la Constitución de 1978 se podía interpretar casi en su totalidad adaptándola al entorno digital. Con la Constitución del 78 los derechos en entorno digital están protegidos. Pero es verdad que hay ciertos derechos que merecen una mayor atención . Por ejemplo, el mismo derecho de acceso a Internet, el del teletrabajo o el derecho a estar protegidos frente a los avances de la neurociencia.
La protección frente a la neurotecnología ha sido uno de los que más han llamado la atención.
Es un caso similar a lo que comentamos. La ley de Protección de Datos protege la privacidad. Pero no está de más recordar a quienes están investigando en el ámbito de la neurociencia, que se debe ser muy, muy riguroso con cualquier uso que se quiera hacer de los datos extraídos de conexiones con el cerebro. Porque si la ciencia va a permitir dentro de no mucho, aunque sea rudimentariamente, interpretar el pensamiento y nuestro subconsciente, eso implica que el último reducto de nuestra privacidad está en riesgo.
No está de más recordar a quienes están investigando en el ámbito de la neurociencia que se debe ser muy, muy riguroso con los datos extraídos de las conexiones con el cerebro
La carta es especialmente ambiciosa y pionera al llamar la atención sobre este tema y definir toda esa información que se puede captar del cerebro como datos personales protegidos. Es muy, muy relevante.
Usted fue el tercer director de la Agencia Española de Protección de Datos, de 2002 a 2007. ¿Se imaginaba que llegaría a ser el organismo tan poderoso que es hoy?
En esos años la agencia era todavía muy desconocida. Muchas veces me preguntan si fui el primero. Siendo catedráticos de Derecho Administrativo, muchos de mis compañeros tampoco sabían que existía. Todo ha cambiado muchísimo desde entonces, cuando solo se empezaba a hablar de la nube o técnicas de identificación de usuarios que ahora nos parecen casi antediluvianas. No llegábamos a prever el impacto espectacular que iba a tener la transformación digital y el tema de los datos, entonces ya se hablaba del big data y de la minería de datos, intuíamos que se podía potenciar muchísimo, pero no hasta estos extremos.
Y eso que entonces la agencia era muy poderosa, una de las que más potestades tenía en toda Europa y de las que podía imponer multas más altas. Ahora tiene incluso más medios, pero los retos a los que debe enfrentarse son espectaculares. La transformación digital es inconcebible sin tratamiento de datos, todo pasa por ahí.
En los presupuestos para 2022 el Gobierno ha pactado con Más País la creación de una Agencia Española de Supervisión de la Inteligencia Artificial. ¿Cree que podría terminar siendo tan importante como la AEPD?
Me parece una idea muy interesante, habrá que ver cómo se concretan sus funciones. Sin embargo, existirá una diferencia porque creo que no podrá ser una autoridad sancionadora. Hay que recordar que las agencias de protección de datos son la única autoridad independiente que se prevé en la Carta de Derechos Humanos de la UE, en el párrafo tercero del artículo 8. La privacidad es el único derecho fundamental en toda la carta que prevé expresamente la existencia de una autoridad independiente; ni el derecho a la propiedad, ni los derechos de autor, ni la libertad de información lo contemplan. Por tanto creo que la AEPD siempre tendrá mucho más peso.
¿Cree que es correcto el camino que se está tomando en España a la hora proteger este tipo de cuestiones?
Creo que lo estamos haciendo bastante bien, sinceramente. Hay un compromiso por parte de los diferentes gobiernos, de las comunidades autónomas y muchísimos ayuntamientos por la transformación digital, pero ojo, también hay que evitar la brecha digital. Hay que recordar que somos personas, no personas digitales. También habría que respetar el derecho de quien no quiera ser digital para evitar brechas y discriminaciones.
Se cuenta muy bien en la película Yo, David Blake, de Ken Loach, sobre una persona parada, ya mayor, que tiene que pedir un subsidio, lo tiene que hacer por internet y no sabe. Es un drama terrible y que termina mal porque le exigen hacerlo digitalmente y se queda sin subsidio porque no sabe cómo solicitarlo. El derecho a no ser digital también hay que respetarlo.
En los últimos tiempos se han multiplicado las quejas ante los bancos que cierran sucursales porque hay personas mayores, y no tan mayores, que no se apañan haciendo ese tipo de gestiones por Internet.
Es muy interesante. Es el derecho a ser atendido por una persona que pueda entender tus necesidades y que pueda ayudarte, no por una locución o un asistente digital. Eso es el derecho a no ser digital. Uno de los grandes avances de la inteligencia artificial son esos asistentes digitales, pero por mucho que los algoritmos sean cada vez más perfectos, hay que garantizar el derecho a que puedan seguir existiendo relaciones humanas con las administraciones, con los bancos, con las compañías de seguros, con los comercios, precisamente para garantizar la calidad de vida de quienes no puedan o no quieran digitales. ¿Que cada vez serán menos? Puede ser, pero no los podemos discriminar. El derecho a no ser digital me parece imprescindible.
Hay que garantizar el derecho a que puedan seguir existiendo relaciones humanas con los bancos, con las compañías de seguros, con los comercios
Es una metáfora curiosa que uno de los derechos de la sociedad digital sea un derecho a no ser digital.
Al final no se metió en la carta, pero yo propuse que estuviera. Es curioso, porque el derecho a ser digital está en la Ley 40/2015 de Régimen Jurídico del Sector Público establece el derecho a relacionarse por medios digitales con la Administración. Los ciudadanos tenemos derecho a ser digitales, pero no tenemos derecho a no ser digitales. Una cosa es tener el derecho a ser digital, pero otra cosa es la obligación a ser digital.
En los últimos años ha crecido mucho la preocupación por la privacidad, pero también sigue persistiendo la idea de que “no me importan los datos que tengan de mí porque no tengo nada que esconder”.
Es cierto que esta narrativa sigue funcionando. En mi opinión es totalmente equivocada. Hay que recordar que, en parte, el origen de ese pensamiento de “no tengo nada que temer porque no tengo nada que ocultar” está en las dictaduras más terribles de los nazis y los comunistas. Vamos a ver, una cosa es temer y otra cosa es actuar con responsabilidad. Una cosa es que yo salga a la calle y tema que me van a atropellar, lo cual sería un sinvivir, y otra cosa es que yo circule con responsabilidad y no me baje de la acera. Con la protección de datos ocurre lo mismo. Sin caer en el fundamentalismo del dato, hay que ser conscientes de que dejamos trazas de todo lo que hacemos y si no actuamos con responsabilidad, con nuestra información nos pueden perfilar y nos pueden manipular.
Si no actuamos con responsabilidad, con nuestra información nos pueden perfilar y nos pueden manipular
Quién utiliza la idea de “no tengo nada que esconder” para actuar sin esa responsabilidad está abriendo la puerta a la manipulación masiva de la gente. La manipulación a través de la inteligencia artificial y los algoritmos, a través del manejo de datos y los perfilados, y de tener a gente tranquila y despreocupada.
El hecho de que siga presente también se basa en que las violaciones de la privacidad en el entorno digital suelen pasar desapercibidas. Si te roban la cartera te enteras de inmediato, pero puedes tardar meses en descubrir que te han robado la identidad digital. Y de que has sido manipulado lo más seguro es que no llegues a enterarte nunca. Cuando hablamos de privacidad hablamos de uno de sus derechos fundamentales más básicos. Un país en el que no se respete la privacidad no es una democracia en absoluto.
¿Le preocupa el avance del reconocimiento facial? ¿De las tecnologías biométricas?
Sí. Hay que estar preocupado por la posibilidad de que se cometan abusos con las tecnologías de reconocimiento facial. En el Instituto Hermes hemos preparado algunos documentos sobre datos biométricos e identidad, porque es verdad que los datos biométricos son los que más certeramente identifican a una persona. En principio no hay nada que objetar al buen uso de datos biométricos para identificar a personas. El tema es cuando no se utilizan para identificar, sino para controlar a personas. Lo que está ocurriendo en China.
Por eso la propuesta de Ley de Inteligencia Artificial de la Unión Europea en principio considera de alto riesgo y limita muchísimo el reconocimiento facial en espacios públicos, salvo para búsqueda de menores perdidos, lucha contra el terrorismo y ese tipo de excepciones. También es preocupante si alguien no puede estar tranquilo porque piensa que se está abusando de sus datos. El Pacto de Derechos Civiles y Políticos de 1966 ya dijo que no hay derechos en un ambiente de miseria o temor. Si estamos en un ambiente de temor por lo que hagan con estos datos, porque nos pueden vigilar, es que las cosas no van por buen camino.