Muchas ciudades del mundo vieron hace poco cómo miles de personas formaban cola para que un orbe futurista les escaneara el iris a cambio de bitcoins. La sorpresa pronto dejó paso a la duda sobre la conveniencia de vender datos biométricos a empresas o sobre si abría la puerta a la suplantación de la identidad. Y, como consecuencia, también a mucha desconfianza hacia la Inteligencia Artificial. Pero Helga Nowotny (Viena, 1937), doctora en sociología y experta en este tipo de tecnología, asegura que esto no es nuevo.
“Hemos desconfiado de cada avance tecnológico desde la edad de piedra, aunque nos han ido muy bien”, asegura la profesora emérita, que se define como tecnooptimista y recuerda que la IA no nos suplantará “siempre y cuando tengamos claro que somos nosotros los que tenemos el control”. ElDiario.es entrevista a Nowotny aprovechando su visita a Barcelona para ofrecer una conferencia en CaixaForum Macaya.
La ciencia ficción nos ha enseñado historias distópicas de robots dominando el mundo a través de la violencia. Ahora, con la Inteligencia Artificial (IA), se nos plantea otro tipo de dominación. ¿Cree usted que las máquinas acabarán tomando el control, de una manera u otra?
No podemos descartar nada [risas]. Aunque si hemos de estar asustados, deberíamos estarlo de los humanos y no de las máquinas. Tendemos a olvidar que la ciencia ficción procede de nuestra imaginación y, por tanto, no puede predecir el futuro. Pero sí refleja problemas y ansiedades presentes. El principal miedo que capta es el temor a perder el control.
La gente está sobrepasada por la aceleración tecnológica. Tenemos robots amenazantes, que nos dan miedo y que, efectivamente, pueden destrozar a un humano, pero también hay robots asistenciales, otros que se usan para limpiar lugares contaminados o nanorobots que salvan vidas en medicina. Luego está el miedo clásico de que nos quitarán empleos. Pero ¿nos reemplazarán lo suficientemente rápido como para que no nos podamos adaptar? Tenemos que ver la foto completa, que es muy compleja. Pero para responder a la pregunta: no, no creo que vayamos a ser dominados por los robots.
Dice que nadie puede predecir el futuro, pero últimamente se ha hablado de la capacidad de la IA de hacer predicciones a través del análisis de datos. ¿Esta capacidad nos abre la puerta a tomar decisiones más conscientes o supone un riesgo de caer en profecías autocumplidas?
Las predicciones son muy útiles en ciencia. Las haces, las compruebas y generas conocimiento. Pero las predicciones sociales son otra cosa, porque no podemos comprobarlas. El problema es que tendemos a creerlas, sobre todo cuando las hace una máquina. Hay estudios que aseguran que creemos más a la IA que a un humano porque la asociamos a la objetividad, olvidando que la máquina puede ser más manipuladora que un humano porque llega a más gente al mismo tiempo.
La manipulación existe desde la antigüedad, pero ahora puedes alcanzar a grandes masas de gente, cambiando la mentira de acuerdo al target, las creencias e ideología. Este es el poder y el peligro de las predicciones sociales si se usan para manipular. Lo vemos en elecciones masivamente interferidas, desinformaciones intencionadas por parte de Estados y grupos que tienen su apoyo.
Es peligroso creer que la predicción se va a hacer realidad. Que lo que te ofrecen te tiene que gustar sí o sí. Los humanos no somos buenos pensando en términos probabilísticos
Cuando hablamos de manipulación en base a predicciones, pensamos en elecciones interferidas, pero ¿hay manipulaciones que afecten directamente a los ciudadanos en su día a día?
Claro. Las predicciones más banales funcionan mucho porque somos criaturas de hábito. Establecemos un patrón de qué nos gusta comprar, a dónde nos gusta ir, con quién y para hacer qué. Además, a la gente le encanta dar sus datos para obtener servicios personalizados. Esto hace que las predicciones sean muy fáciles de hacer. Pero es peligroso cuando empiezas a creer que la predicción se va a hacer realidad. Que lo que te ofrecen te tiene que gustar sí o sí. Los humanos no somos buenos pensando en términos probabilísticos.
¿Qué puede fallar en estas predicciones?
Nos cuesta entender que las predicciones están basadas en datos del pasado, mientras que la vida sigue y cambia. Y hay sorpresas. Piensa en la pandemia, la guerra de Ucrania... Aquí, las previsiones perdieron parte de su valor.
Pero lo peor que puede pasar con una predicción es caer en la profecía autocumplida. Un ejemplo clásico se dio en los años '30 en Estados Unidos. Cuando empezó la crisis se asustó a la gente diciendo que los bancos se quedarían sin dinero. Así que, ¿qué hicieron? Fueron al banco a sacar todos sus ahorros y, efectivamente, los bancos se quedaron sin dinero.
A la máquina se le presume una objetividad que seguramente tiene. El problema es que opera con datos recogidos según los sesgos del ser humano. ¿Cómo podemos garantizar la objetividad y la representatividad en las bases de datos?
Bueno, aquí hay que ser cuidadosos. Los datos son un reflejo de lo que la gente piensa y hace. No puedes pretender tener datos sin sesgos si vivimos en una sociedad sesgada. Lo que tenemos que hacer es asegurarnos de que el sesgo de los datos no sirva para generar más discriminación. Esto es responsabilidad de quién recoge los datos y los programa, pero también de los reguladores. A todo el mundo le gusta presumir de que crearemos una IA ética, justa, transparente y maravillosa, pero las dificultades técnicas son enormes. Y estamos lejos de resolverlas.
¿Cuál es el principal escollo para llegar a esta IA ética?
Ahora mismo la enorme concentración de poder económico: estamos en manos de muy pocas corporaciones y tenemos regulaciones muy débiles que dan mucha libertad a estas empresas, lo que se traduce en que tienen un ingente poder político. Las trabas que ha tenido la ley sobre la IA que acaba de avalar la UE se explican precisamente porque había muchos lobbistas intentando frenarla e influenciarla.
¿Deberíamos apostar por un servicio público de la IA?
Es necesario que cada Estado tenga sus propios administradores de datos que regulen qué se recoge y cómo se usa. También necesitamos herramientas y fondos para asegurarnos de que lo que recomienden se implemente. Y hacerlo visible, de tal manera que los ciudadanos sepan que hay una institución que se preocupa por sus derechos.
Esto es importante si tienes un sistema de toma de decisiones basadas en algoritmos. Las compañías de seguros, el sistema judicial o los bancos los usan. Si te deniegan un préstamo, tiene que haber un organismo ante el cual puedas apelar y que pueda revisar caso a caso. De otra manera podemos perder derechos porque la IA esté sesgada o porque haya cometido un error.
Hablaba antes del enorme poder económico que tiene la IA. ¿Hay algo de esta tecnología que quede sin monetizar?
Bueno, para empezar, la mayoría es de acceso gratuito.
Pero ya sabemos que no es gratis del todo...
Correcto, no hay nada gratis en el universo [ríe]. Pero damos nuestros datos pensando que nos sale gratis. Vivimos en una economía de mercado y hay muchas inversiones en el sector de la IA. Y estas compañías querrán sacar provecho, aunque todavía no lo hayan hecho. La mayor parte de las cosas que gozamos en la vida, por mucho que digan, no son gratis. Es lo que tiene vivir bajo el capitalismo.
Hay muchas cosas representadas en los datos, pero también hay vida fuera de ellos
Se sabe de sobras que el precio que pagamos por la IA es información que se usa para engrosar esas bases de datos de las que venimos hablando. Pero hay grandes sectores de la población que no acceden a esta tecnología y que serán inexistentes en los repositorios. ¿Qué consecuencias tendrá?
Hace poco estuve en Sudáfrica y me contaban que poco antes de que yo llegara fue un profesor americano muy famoso a hablarles sobre las cosas maravillosas que se pueden hacer con algoritmos de datos, pero tuvieron que reconocerle que no tienen datos recolectados. Ni siquiera saben exactamente cuánta gente vive en sus ciudades, en qué condiciones, y no tienen estadísticas por raza. Sólo estimaciones.
Así que sí, va a haber grandes partes de la sociedad que no estarán representadas en los datos. Esto es muy grave, pero no nuevo. Ya pasa en el campo médico: hay grupos de población a los que se diagnostica y trata con modelos de salud creados con datos que no les sirven. Hay muchas cosas representadas en los datos, pero también hay vida fuera de ellos.
¿Debemos entender las largas colas de ciudadanos esperando a vender su iris a cambio de bitcoins como una estrategia de conseguir datos difíciles de obtener?
Estamos en la era de datificación del ser humano. Cada vez va a haber más y más datos sobre uno y es muy iluso pensar que nos los podemos guardar; estamos muy conectados con cualquier cosa que hacemos y ya no podemos vivir sin dejar un rastro de datos por el camino.
Pero eso ha pasado siempre: las estadísticas nacieron en el siglo XVIII como una manera que tenían los estados de controlarnos a través de la información que recogían sobre nosotros. Al principio se usaron para encontrar a hombres sanos para engrosar las filas del ejército. Así que ¿cuál es la novedad? Seguimos siendo sólo un número, pero hemos aprendido a usar las estadísticas para propósitos más sensibles como políticas públicas o campañas de salud.
Pero no estamos hablando de la recolección de datos por parte del Estado, sino de vender tus datos biométricos a una compañía que, hasta ahora, sólo tenía nuestros patrones de consumo.
Aquí es donde ocurre el intercambio de poder entre el Estado y las empresas. El Estado podría prohibir la venta del iris. En muchos países, desde el siglo XX, está prohibido vender sangre. Puedes donarla, pero no venderla. Tenemos leyes contra la venta de órganos. Pues la ley podría prohibir también la venta de datos biométricos.
Hemos visto que la tecnología siempre va más rápido que la legislación. Lo demuestra el hecho de que se acabe de votar la primera ley de la IA cuando esta herramienta lleva años entre nosotros.
Es cierto, pero eso no quita que, aunque lentos, debamos actuar. Igual alguno de los primeros ministros o presidentes del mundo quiere tomar la iniciativa y sacarse una propuesta de ley de la manga para hacerse famoso [ríe].
[Algunos días después de realizar esta entrevista, la Audiencia Nacional confirmó el bloqueo en España a la empresa Worldcoin, a la que obliga a parar sus escaneos de iris durante tres meses].
Visto que esto va para largo ¿qué relación deberíamos tener con estas tecnologías?
Tenemos tecnología desde la edad de piedra y nos ha ayudado mucho. Así que no tiene sentido volverse tecnófobo ahora. Debemos aprender a usarla para nuestro beneficio y no olvidar nunca que somos nosotros quienes la diseñamos y la operamos. Por lo tanto, somos quienes la controlamos y no a la inversa.
¿A qué se refiere exactamente con 'controlar'?
Eso es muy interesante. Hasta ahora hemos controlado la tecnología para que trabaje bien y no cometa errores. También para que no dañe la salud y la seguridad de los trabajadores que la operan. Que no sea muy nociva para el medio ambiente... Pero ahora el gran reto va a ser la IA. ¿Cómo podemos controlar el impacto que va a tener en nosotros, en nuestras mentes, estilo de vida, valores, en cómo nos relacionamos?
Imagino que no tiene la respuesta.
Hay que trabajar en ello. Y lo debemos ver como un reto, no como una amenaza. No dejar de basarnos en la posibilidad de que podemos tener el control total.
¿En la posibilidad? ¿Así que hay una opción de que la IA nos controle?
Bueno, los accidentes de trabajo siguen ocurriendo y seguimos contraminando minas y ríos. Como he dicho al principio, aunque no creo que sea probable, no podemos descartar nada del todo.