Carme Artigas, sobre la Inteligencia Artificial: “Está muy bien, pero siempre y cuando sea al servicio del ser humano”

“La tecnología sólo tiene sentido si revierte en bienestar social”, recalca Carme Artigas. Un principio moral que podría parecer básico, pero que toma especial relevancia en medio de la revolución que va a traer consigo la Inteligencia Artificial (IA). “Es una herramienta que se puede utilizar para bien y para mal. No vamos a poder evitar que alguien quiera utilizarla para mal, pero tiene que haber unas represalias. Tiene que haber unos límites y deben estar claros”, coincidía Verónica Bolón, científica de la Computación especialista en esta tecnología.

Las dos han estado presentes en el Festival de las Ideas y la Cultura organizado por elDiario.es para hablar de los retos y oportunidades que suponen los últimos avances de la IA. Unos desarrollos vertiginosos que ha sembrado inquietudes tanto entre ciudadanos como entre muchos expertos, que no esperaban que esta tecnología diera tan rápido el salto como el que ha dado en el último año.

“A muchos nos pilló por sorpresa”, ha reconocido Bolón. Porque existen herramientas de IA desde hace décadas, lo que han demostrado ChatGPT y el resto de inteligencias artificiales denominadas “generativas” es que “es buena en algo en lo que pensábamos que solo éramos buenos nosotros, que es en crear”, ha recordado Artigas. Crear textos, crear imágenes, crear vídeos, crear libros, crear historias. Algo radicalmente diferente a analizar grandes cantidades de datos y extraer patrones de ellos, que había sido su principal cometido hasta ahora.

Eso la ha dotado de “un gran potencial para ser nuestro asistente”, ha explicado Bolón. “Te puede facilitar enormemente la vida, a mí sugiriéndome preguntas para mis alumnos, a un nutricionista dándole ideas sobre ingredientes. Siempre requiere supervisión, pero es una herramienta que te ayuda a pensar”, ha abundado en la charla, moderada por la periodista María Ramírez, subdirectora de este medio.

El problema que puede derivarse de esa situación es se ha convertido en una tecnología que puede colarse en la vida diaria de todas las personas, pero las leyes no estaban preparadas para eso. “Si yo no puedo tener un electrodoméstico en mi casa que no haya pasado unos controles de seguridad, ¿por qué puede estar la sociedad utilizando ChatGPT sin ningún tipo de filtro ni control?”, se ha preguntado la experta. “Yo he visto casos de gente que le pide dietas para adelgazar. Hay que tener cuidado conciertas cosas, porque no podemos poner nuestra salud en manos de estas herramientas sin supervisión”, apunta.

Este hecho se suma a su capacidad para cambiar de arriba a abajo el mercado laboral. “Va a afectar a todos los sectores. Vamos a ver un altísimo nivel de automatización de la mayor parte de procesos de negocio en los próximos cinco años”, ha avanzado Artigas: “Va a cambiar muchísimas profesiones”.

Estas dos cuestiones hacen que la regulación de esta tecnología y su impacto en la sociedad se hayan colocado en el centro debate en este momento. Un debate en el que Europa y España quieren marcar el paso.

Humanismo tecnológico

En este semestre se espera que la UE apruebe su primer Reglamento General sobre Inteligencia Artificial. Coincidirá con el turno español de la presidencia rotativa de la Unión. “No es un estándar legal. No es un estándar ético. Es un estándar moral. Le estamos diciendo al mundo lo que queremos que sea aceptable o no aceptable que hagan con nuestros datos y con la IA”, ha explicado Artigas.

España ha tomado un rol relevante en esta normativa. Se ofreció como campo de pruebas del Reglamento, ofrecimiento que fue aceptado por la UE, y desarrollará “la primera agencia del mundo de supervisión de la Inteligencia Artificial”, ha recordado la secretaria de Estado. El organismo se ubicará precisamente en A Coruña (sede también de esta edición del Festival de las Ideas y la Cultura) y estará operativo en menos de tres meses.

“Lo que defendemos nosotros, con nuestra visión como Gobierno de España, es regularla dese el humanismo tecnológico, que se basa en que la tecnología está muy bien pero siempre y cuando esté al servicio del ser humano, y no nosotros al servicio de las máquinas”, ha detallado Artigas.

Una regulación que será clave también para los desarrolladores, ha recordado Bolón, para ayudarles a evitar que las decisiones que tome la IA puedan estar sesgadas. “Ha habido sesgos en la Inteligencia Artificial desde hace décadas. Los sesgos están en los datos, los datos los generamos las personas, y las personas tenemos sesgos”, ha incidido la profesora. “Pero debemos entender que el problema es que nosotros como personas podemos tener sesgos, pero si estos sesgos van a un programa de IA, como a algoritmos que emplee un Gobierno para decidir a quién se le da una ayuda social, qué pacientes se priorizan, si un preso va a reincidir o no, estos sesgos no solo se perpetúan sino que se magnifican. Eso es un problema muy gordo”.

Por todo ello, la IA plantea una transición a un mundo más automatizado. El mensaje de las dos especialistas ha sido que esa transición “no va a ocurrir de la noche a la mañana, sino que vamos a tener la oportunidad de dar forma al mundo que queremos que ocurra”, ha afirmado Artigas: “Tenemos que aprovechar esa transición para reducir las brechas. Es la responsabilidad de nuestra generación”.