Carissa Véliz, filósofa: “La privacidad nos protege de potenciales abusos de poder”

María Ramírez

Oxford (Reino Unido) —
6 de abril de 2024 21:26 h

0

Carissa Véliz, profesora del Departamento de Filosofía y el Instituto para la Ética en la Inteligencia Artificial de la Universidad de Oxford, está hoy especializada en los dilemas éticos en el uso de la tecnología. Habla de la falta de seguridad de los protocolos con los que se construyó Internet, las redes sociales que nos empujan a la exposición pública constante y los algoritmos que indican a los bancos quién merece un préstamo o a la policía quién puede ser un terrorista. Pero su interés en la privacidad y la vigilancia empezó con unos legajos. 

Cuando todavía era estudiante universitaria, se puso a consultar documentos en papel a través de un archivo que encontró en Salamanca para investigar la historia de su abuelo y su tío abuelo españoles, que tras la guerra civil española se exiliaron en México, donde se instaló casi toda la familia. Ni Carissa ni su madre conocían muchos de los detalles que la joven descubrió consultando archivos y vecinos y que la hicieron sentirse más cerca de sus parientes, con los que compartía sin saberlo el gusto por la escritura y la filosofía. Descubrió tesoros, pero también se empezó a preguntar por la ética de la privacidad interpersonal, y así empezó un camino académico inesperado.

Véliz lleva más de una década publicando investigación académica, artículos y libros sobre la privacidad en el contexto digital. Después del ensayo Privacidad es poder (Debate, 2021), su último libro, recién publicado en inglés, es The Ethics of Privacy and Surveillance (la ética de la privacidad y la vigilancia). 

En este ensayo académico, la filósofa se centra en la definición moral de la privacidad, un instinto animal que compartimos con casi todas las especies (los insectos son la excepción) y del que se encuentran ejemplos en las sociedades humanas desde el principio de los tiempos. Como explica Véliz, la palabra “privacidad” viene del latín “privatio” (privación) y parece tener una connotación negativa; Aristóteles decía que vivir una vida en privado es no ser “plenamente humano”. Los escépticos sobre el principio universal de privacidad recuerdan que los romanos concebían los baños como un lugar para “la evacuación y la conversación” y juntaban hasta 20 letrinas públicas para este fin. Pero Véliz también subraya cómo los romanos querían privacidad para confesarse en sus templos y valoraban el secreto de sus cartas. 

Desgranando las implicaciones personales y sociales, Véliz reivindica la importancia de la privacidad, bajo la presión de la digitalización que hace más fácil rastrear, clasificar y almacenar información y, por ello, abre la puerta al abuso de gobiernos, empresas y personas malintencionadas. 

Hablamos sobre algunas de estas cuestiones por Signal, la plataforma de mensajería considerada como más segura que otras porque no recopila ni almacena datos y tiene algunas funciones de borrado automático. La conversación, a través de mensajes de audio, está editada por claridad.

¿Ha perdido la privacidad peso como valor social?

Depende de cómo se entienda un valor. Creo que se nos ha olvidado lo importante que es la privacidad, pero no por ello deja de serlo. Antes teníamos más fresca la historia de por qué es importante la privacidad: por ejemplo, por cómo se utilizaron los datos personales en la Segunda Guerra Mundial. Teníamos más recientes los recordatorios de por qué hay que proteger la privacidad. Y ahora las grandes tecnológicas nos han intentado convencer de que la privacidad es algo del pasado, de que ya no es relevante, de que ya no importa. Pero poco a poco, por desgracia a través de malas experiencias, estamos volviendo a aprender su importancia.

Cuando te roban la identidad on line, cuando alguien es expuesto públicamente, cuando hay un caso de extorsión -por ejemplo, ha habido varios casos de extorsión a pacientes de clínicas que pierden información y luego delincuentes extorsionan a esos pacientes- vamos aprendiendo que la privacidad siempre va a ser relevante, porque la privacidad nos protege de potenciales abusos de poder. Y siempre que haya instituciones y las personas sean personas, va a haber esa tentación de abusar del poder. Con lo cual, no importa cuál sea la tecnología o cómo reorganizamos la sociedad. La privacidad siempre va a ser importante y, de hecho, en mi nuevo libro académico argumento que la privacidad es una necesidad animal que compartimos con muchos otros animales. Por ejemplo, la privacidad es necesaria para el sueño, la relajación, tener espacio libre: es tan necesaria como tener comunidad. Son dos lados de la misma moneda que necesitan un equilibrio y un complemento. 

Las grandes tecnológicas nos han intentado convencer de que la privacidad es algo del pasado, de que ya no importa. Pero poco a poco, por desgracia a través de malas experiencias, volvemos a aprender su importancia

En su libro cuenta cómo a lo largo de la historia la privacidad no siempre ha sido un valor positivo, ¿lo es ahora? 

Siempre ha habido una batalla por interpretar la privacidad, y hay grupos que la interpretan como algo positivo y otros como algo negativo. En diferentes momentos de la historia una interpretación domina sobre la otra. Ahora venimos de unas décadas en las que la interpretación de la privacidad ha sido más negativa. Y no quiero sonar como si esto fuera algo neutral. La interpretación de la privacidad como algo negativo siempre tiene intereses detrás, intereses a veces económicos, a veces de género: ha sido un arma, por ejemplo, para controlar a las mujeres; también ha sido un arma usada por la religión para controlar a los creyentes. Y las tecnológicas lo han usado como un arma para hacer lo que quieren con los datos personales y controlar a los usuarios y a los ciudadanos. Y ahora hemos aprendido de esa experiencia un poco y es más común que la gente sea más consciente de que la privacidad es importante… de que, aunque no seas un delincuente, aunque no estés escondiendo nada incorrecto, la privacidad es importante: no es que tú estés escondiendo algo incorrecto, es que otras personas están dispuestas a hacer algo incorrecto, como robarte la identidad, aprovechándose de que no tengas privacidad.

Ahora también vemos servicios que están poniendo la privacidad como una opción por defecto cuando antes no lo hacían, por ejemplo con la encriptación en los mensajes. Antes no era lo común y ahora se asume cada vez más que algo no tiene los estándares correctos si los mensajes no están encriptados.

¿Debemos distinguir entre sociedades democráticas abiertas y sociedades autoritarias en estas preguntas? 

Debemos distinguir entre tendencias autoritarias y tendencias democráticas, porque el distinguir entre países democráticos y autoritarios parece sugerir que hay una línea bien marcada, que es fácil distinguir y es algo binario. Como sugiriendo que si estás en una sociedad democrática abierta, entonces estás seguro y ya no hay de qué preocuparse. Pero, en realidad, la democracia es algo que se construye cada día, que siempre hay que defender, que se pierde o se gana en el terreno todos los días.

Hay una conexión muy cercana entre las tendencias autoritarias y una mayor digitalización. Esto se debe a dos razones. Por una parte, traducir algo de lo analógico a lo digital es una forma de vigilancia porque estamos traduciendo en datos algo que no eran datos. Estamos traduciendo el mundo de las cosas al mundo de los unos y los ceros, que hace que todo sea registrable y buscable, tangible y rastreable. Y, por otra parte, el código tiene tendencias muy autoritarias.

Cuando tú tienes un código que, por ejemplo, no te permite subir cierta velocidad en tu coche, no hay manera de pedir una excepción o de negociar. No puedes negociar los términos y condiciones de las plataformas o los algoritmos. El código hace lo que está programado para hacer y se impone. En cambio, cuando tienes una ley, la puedes romper: lo que pasa es que puedes pagar las consecuencias, ir a la cárcel o pagar una multa o lo que fuere. Pero con el código no hay manera de romper esas reglas que se han impuesto sobre ti.

La democracia es algo que se construye cada día, que siempre hay que defender, que se pierde o se gana en el terreno todos los días. Hay una conexión muy cercana entre las tendencias autoritarias y una mayor digitalización

¿En la definición de la vigilancia y el derecho a la privacidad hasta qué punto es central la intención? 

Cuando juzgamos a alguien que ha recolectado datos de manera ilegítima, si quería recolectarlos para robar, evidentemente, es más grave que si quería recolectarlos para ayudar a alguien. Pero al mismo tiempo, desde un punto de vista de las relaciones de poder y desde un punto de vista legislativo, no debe importar demasiado, porque justamente uno de los problemas con la privacidad es que los datos que se pueden haber recopilado para buenos usos se acaban utilizando mal. 

¿Se puede identificar la intención a priori? Es decir, los mismos datos sobre la demografía de un barrio pueden servir para decidir si hay que invertir más dinero en escuelas o para movilizar a votantes a favor de un partido. Las mismas cámaras pueden ayudar a disuadir el crimen o a localizar a un disidente político…

Precisamente una de las razones para proteger la privacidad es que el riesgo de tener datos personales recolectados por ahí es muy alto porque siempre se pueden utilizar mal. Los datos personales son muy sensibles, son muy difíciles de mantener seguros y es muy fácil abusar de ellos. Cuando tienes una arquitectura de vigilancia, si te basas en la intención y tienes un buen gobierno, puedes dejar que llenemos las calles de cámaras y las habitaciones de micrófonos. Pero el problema es que esa estructura de la vigilancia luego la va a heredar otro gobierno. Y si ese gobierno tiene peores intenciones, ya dan igual las intenciones originales.

Ese problema lo vemos mucho a lo largo de la historia, por ejemplo en Hong Kong. Es un ejemplo de una sociedad bastante puntera en tecnología y que tenía a China continental más o menos a distancia. Cuando China continental aprieta ya es muy tarde, porque la estructura de la vigilancia ya está ahí. Entonces ves a la gente tratando de tirar las cámaras en la calle o de comprar billetes para el metro con efectivo cuando prácticamente todas las transacciones son digitales. Por eso es un error concentrarse en la intención.

Los datos personales son muy sensibles, son muy difíciles de mantener seguros y es muy fáciles abusar de ellos

En su libro escribe que la vigilancia es un arma de dominio político, habitualmente una de las primeras utilizadas en regímenes autoritarios. ¿Qué ejemplos actuales son los más preocupantes?

El ejemplo más preocupante de la relación entre autoritarismo y vigilancia en este momento evidentemente es China. En parte porque está más avanzado en tecnología que otros países y es un sitio donde se ve muy claramente cómo la vigilancia se utiliza para el control. Primero con excusas, con cuestiones como la delincuencia o la pandemia, pero al final termina con un sistema de crédito social en el que se vigila no solamente que cumplas la ley, sino que además seas buen vecino... y no se trata sólo de que cumplas la ley en las cuestiones más importantes como pagar impuestos o no agredir a nadie: por una pequeña infracción, por ejemplo, fumar dentro de un tren, te pueden poner en la lista negra y ya no puedes viajar en tren, no puedes viajar en avión, no puedes quedarte en hoteles de cinco estrellas. Una de las características de las sociedades totalitarias es que cualquier infracción te afecta al resto de la vida.

Las sociedades liberales intentamos formar compartimentos: si tienes un problema en el trabajo, eso obviamente va a afectar tu trabajo, pero intentamos que no afecte otras cuestiones como, por ejemplo, tu relación con el Estado. En una sociedad autoritaria, el no pagar impuestos o pagar unos impuestos tarde puede afectar a tu vida amorosa porque ya no vas a aparecer en las aplicaciones de citas. 

El ejemplo más preocupante de la relación entre autoritarismo y vigilancia en este momento es China. Está más avanzado en tecnología que otros países y es un sitio donde se ve muy claramente cómo la vigilancia se utiliza para el control

Pero China no es la única. Otro ejemplo también ha sido claramente Rusia, donde la vigilancia también se utiliza para intimidar a los ciudadanos y para controlarlos. 

Y, en general, también vemos esas tendencias en otras sociedades. No hay una línea clara de distinción. En sociedades democráticas hay tendencias autoritarias, aunque sigan siendo sociedades democráticas.

¿Puede ser la vigilancia también un arma contra los regímenes autoritarios y la desinformación? Por ejemplo, el trabajo que hace el medio de investigación Bellingcat con datos abiertos ha permitido descubrir crímenes de guerra rusos en Ucrania o en Siria y contrarrestar mentiras. 

Sí, por supuesto. El periodismo de investigación se basa en eso. En usar la investigación y la información para desvelar cuestiones de interés público y, sobre todo, injusticias. Pero la cualidad del periodismo de investigación es que no es vigilancia masiva, es vigilancia muy dirigida. Y para que sea ético tiene que cumplir con unos mínimos de interés público.

¿La vigilancia digital ha permitido democratizar el acceso fuera de los gobiernos? Antes del acceso a datos masivos y la inteligencia artificial, el trabajo que hizo el New York Times con el seguimiento del globo espía chino probablemente sólo lo podía hacer la CIA. Otro ejemplo son los crímenes en Gaza, donde los reporteros apenas tienen acceso al terreno. 

Sí, la vigilancia digital ha democratizado el acceso a la vigilancia. Pero la palabra “democratizar”, en realidad, me genera bastante conflicto, porque es una palabra que sugiere que es algo positivo. Pero no hay que democratizar lo que no se debería democratizar. Es decir, ¿quiero democratizar el acceso a las armas nucleares? Pues no.

Y que le haya dado más poderes al periodismo probablemente es algo bueno, sobre todo dado el grandísimo poder que le ha dado a gobiernos y a corporaciones. Pero el que cualquiera pueda vigilar a alguien más no es algo positivo y suele usarse en contra de las personas más vulnerables, sobre todo las mujeres y las minorías. No por el periodismo, sino por el público en general.

Y el que las compañías puedan tener información que de haberla recopilado una agencia de inteligencia sería considerada como alto secreto, información súper sensible, no es algo positivo.

Cuando un representante de la industria de la publicidad le presenta por primera vez a la CIA el tipo de datos que tiene hay un momento en el que un tío de la CIA dice “no, no, espera, para esta presentación necesitamos irnos al búnker”. Y el representante de esta industria le contesta: “No te preocupes. Esta información no la robamos, no la hackeamos, la compramos”. Eso nos debería dar escalofríos.

Es muy fácil utilizar la excusa de la seguridad para desarrollar y usar tecnología que, en realidad, al final erosiona más nuestra seguridad

¿Qué opina de la nueva ley de la UE para regular la inteligencia artificial?

Regular la inteligencia artificial es evidentemente una prioridad y nada sorprendente. Las generaciones anteriores han tenido que regular sus industrias, ya fueran los trenes, los aviones o las farmacéuticas, y la tarea de nuestra generación es regular a nuestras industrias. La nueva ley en Europa es, sin duda, un avance. De nuevo, Europa se posiciona a la cabeza en pensar en cómo diseñar buenas reglas para mejorar estos productos. Veremos cómo se desenvuelve en los próximos años. La nueva ley tiene cosas muy positivas, como por ejemplo mucha más transparencia, que los modelos tengan que pasar por evaluaciones y mitigación, y mejor protección de ciberseguridad. Pero también surgen dudas.

Una duda sobre la nueva ley de la UE para regular la inteligencia artificial es qué tan adecuado es pensar en la inteligencia artificial como una cuestión de riesgo en vez de poner el énfasis más en los derechos

Una duda es qué tan adecuado es pensar en la inteligencia artificial como una cuestión de riesgo en vez de poner el énfasis más en los derechos, porque puede haber inteligencia artificial que parece que no es muy riesgosa y termina siendo más riesgosa de lo que pensábamos. El riesgo, al final, siempre tiene un elemento subjetivo y de predicción que no siempre es fácil analizar. Y otra cosa que me preocupa son las excepciones que se hacen por cuestiones de seguridad, por ejemplo para utilizar reconocimiento facial. Uno de los problemas es que es muy fácil utilizar la excusa de la seguridad para desarrollar y usar tecnología que, en realidad, al final erosiona más nuestra seguridad, pero no es evidente: parece que la incrementa cuando que en realidad la erosiona.