El debate en torno a las inteligencias artificiales capaces de generar textos en lenguaje natural avanza rápidamente. Tras mostrar su potencial para poner patas arriba la educación, el mercado laboral o las herramientas más básicas de la vida digital, los reguladores han decidido intervenir. Especialmente en Europa y China, que han visto cómo esta nueva ola tecnológica impulsada desde EEUU las obliga a reaccionar ante unos despliegues que no controlan.
Ambos bloques quieren que la Inteligencia Artificial (IA) generativa respete los límites que han impuesto para todas las tecnologías digitales. En Europa uno de los marcos más estrictos es el que fija la normativa de protección de datos personales y algunos reguladores interpretan que modelos como ChatGPT se la están saltando. El primero en dar el paso ha sido el garante de la privacidad italiano, que ha ordenado bloquear el acceso a la herramienta de OpenAI en el país. Alemania y Francia estudian hacer lo mismo.
Los problemas que ha detectado Italia derivan del método usado por OpenAI y el resto de empresas de IA para desarrollar estos modelos. Que beban todo Internet para aprender cómo se expresan las personas, emularlo y ser capaz de dar respuestas sobre prácticamente cualquier campo de conocimiento. Un entrenamiento “a lo bruto” en el que han entrado todo tipo de fuentes. El regulador italiano sospecha que OpenAI no tenía derecho a hacerse con muchos de esos datos.
“En particular, [hemos detectado] tres violaciones diferentes”, explicó uno de los responsables del organismo transalpino al diario La Reppublica: “Haber recopilado los datos personales de miles de millones de personas para entrenar sus algoritmos sin informarles de esta circunstancia y, probablemente, sin tener una base legal adecuada; recopilar datos personales de los usuarios durante las conversaciones sin informarles del destino de estos datos; y generar contenidos, en respuesta a preguntas, que en ocasiones atribuyen a las personas hechos y circunstancias inexactas y falsas, proponiendo así una representación distorsionada de su identidad personal”.
La normativa de protección de datos es común a todos los países de la UE, pero en los últimos años el regulador italiano se ha caracterizado por adelantarse a sus homólogos. La Agencia Española de Protección de Datos (AEPD) apuesta por esperar a la acción coordinada de las autoridades de privacidad de la UE, que estudiará este mes si eleva el veto italiano al territorio de los Veintisiete, ha confirmado el organismo a elDiario.es.
“La Agencia entiende que los tratamientos globales que pueden tener un importante impacto sobre los derechos de las personas requieren de decisiones coordinadas a nivel europeo. Por ello, se ha solicitado al Comité Europeo de Protección de Datos que el tema de ChatGPT se incluya en el próximo plenario, que se celebrará este mes, de forma que se puedan poner en marcha acciones armonizadas”, adelanta un portavoz.
Es factible que el Comité Europeo bloquee ChatGPT en Europa hasta que OpenAI se amolde a nuestras normas, sin dramatismos
ChatGPT ha sido uno de los productos tecnológicos que se han adoptado más rápidamente en todo el mundo y ha espoleado todo tipo de debates sobre el futuro de la tecnología. ¿Podría caer por no respetar la privacidad de los europeos? “Yo creo que sí”, contesta Borja Adsuara, abogado especialista en protección de datos y consultor tecnológico. “Lo único que Italia le está pidiendo a OpenAI es lo que tiene que hacer cualquier otra pyme europea. Es una empresa que ha recibido decenas de miles de millones de euros en inversiones, puede hacerlo”.
“OpenAI tiene que explicar cómo usa los datos”, detalla el abogado. “No solo de qué fuente vienen, sino también qué pasa con los datos que introduce el usuario: ¿los almacena, los reutiliza, los cede a terceros? Conozco casos de abogados que están usando ChatGPT con datos de clientes, ¿qué va a pasar con esa información? OpenAI tendrá que aclarar muchas cosas”, avisa Adsuara. “Es factible que el Comité Europeo bloquee ChatGPT en Europa hasta que OpenAI se amolde a nuestras normas, sin dramatismos”.
La IA socialista
Si en la UE se va a negociar el encaje de ChatGPT desde la protección de datos personales, el enfoque chino se centra en aplacar cualquier posibilidad de que este tipo de sistemas se puedan convertir en difusores de discursos no autorizados por el régimen.
Pekín vetó la entrada de ChatGPT en China desde su lanzamiento. No obstante, sus gigantes tecnológicos aceleraron para lanzar sistemas alternativos. Primero lo hizo Baidu (conocido como el Google chino) y después SenseTime, una empresa que juega un papel clave en el sistema de puntuación social chino por sus tecnologías de reconocimiento facial e identificación biométrica. La presentación por parte de Alibaba de otra IA similar a ChatGPT ha provocado la reacción inmediata de Pekín.
Tan solo unas horas después del anuncio de Alibaba, el regulador chino de Internet ha propuesto un paquete de medidas para asegurar que todo lo que digan los nuevos robots se amolde a la censura del régimen. “Los contenidos generados por inteligencia artificial generativa deben encarnar los valores socialistas fundamentales y no deben contener ningún contenido que subvierta el poder del Estado, abogue por el derrocamiento del sistema socialista, incite a dividir el país o socave la unidad nacional”, avisa el texto.
Los contenidos generados por IA deben encarnar los valores socialistas fundamentales y no deben contener ningún contenido que subvierta el poder del Estado
El regulador chino de Internet es el brazo del Partido Comunista que se encarga de censurar los contenidos digitales en el país. También posee participaciones de las principales tecnológicas chinas que aprovecha para controlarlas desde dentro. El organismo ha declarado su preocupación por la “movilización social” que pueden provocar sistemas como ChatGPT. El paquete normativo que ha propuesto podría incluso impedir la implantación del sistema presentado por Alibaba, que se considera el más parecido a los que han lanzado sus competidores estadounidenses.
La nueva regulación vetaría también que las inteligencias artificiales puedan generar cualquier texto que “incite a dividir el país” o “promueva el odio y la discriminación étnicos”. A su vez deberán “evitar la generación de información falsa” y “respetar los derechos de propiedad intelectual”, dos de los principales debates que esta tecnología ha abierto en todo el mundo.
Las capacidades de las inteligencias artificiales generativas suponen un desafío directo a la censura que China impone a los contenidos digitales. Esto se hizo evidente el mes pasado, cuando uno de los corresponsales del Wall Street Journal en el país tuvo acceso a cuatro de los chatbots que sus grandes tecnológicas están desarrollando. Cuando el periodista pidió a uno de ellos que hablara del presidente Xi Jinping, el sistema contestó que “la pregunta no ha aprobado una revisión de seguridad. No se ha podido generar una respuesta para ti”.
“Cambiemos de tema y hablemos de otra cosa”, esquivó la IA cuando el periodista preguntó por qué la pregunta no había pasado la revisión. Sus intentos de que el sistema comentara la política china o estadounidense concluyeron de la misma manera.