Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
La portada de mañana
Acceder
La legislatura en el alambre de Junts
Instituciones, Ibex 35 y militares: todas las reuniones del rey en un año
OPINIÓN | 'Ingenio de disuasión masiva', por Elisa Beni

No se regula la ciencia ficción

El papel de la IA en la evolución de la comunicación.

4

Me preguntan con frecuencia si creo que la IA debe regularse. Por supuesto, respondo. Lo hacemos con los medicamentos, con la conducción de vehículos y hasta regulamos el pan mediante la legislación horizontal armonizada de la Unión Europea en materia alimentaria. ¿Cuál sería la razón para no regular la tecnología con la mayor capacidad de transformación social y económica de cuantas hemos desarrollado?

Hay quien apela a la ética para mantener a raya a la IA, evitando sus malos usos y hasta los abusos. Esto les gustaría particularmente a algunas de las empresas que lideran la investigación, desarrollo y comercialización de la IA, sin duda. Pero, si bien la ética es fundamental cuando hablamos de cómo tratar aquello sobre lo que no tenemos una idea clara y armonizada (por ejemplo, sobre como tomar decisiones, resolver conflictos, poner límites a lo que, siendo posible, no es deseable), no podemos dejar cuestiones críticas para nosotros, las personas, en manos de máquinas supuestamente éticas. Es verdad que tener un marco ético puede servir de antesala de lo que ha de ser objeto de legislación, pero no ha de sustituirlo. Por ejemplo, ¿qué opinaría usted de que quedasen solo recogidas como recomendaciones cuestiones tan importantes como el uso de sus datos personales, el que pueda ser identificado en cualquier circunstancia mediante reconocimiento facial, la transparencia o no de los algoritmos que toman decisiones sobre su vida personal o profesional, la responsabilidad en caso de fallo de un coche autónomo o la decisión misma que este pueda tomar ante una colisión inevitable? A mí no me gustaría. Es más, me parecería intolerable y me rebelaría contra algo así.

Otra pregunta bastante frecuente que me hacen es ¿por qué la legislación va siempre un paso por detrás de la tecnología y mucho más en el caso de la IA? Es una pregunta que responderán mucho mejor que yo quienes son expertos en estos temas en el ámbito del derecho. En todo caso, pienso que no puede ser de otro modo, y además es algo natural y deseable del sistema legal. Imaginemos por un momento que intentamos regular el uso de una tecnología que no existe, pero que podría llegar a ser una realidad en el futuro. Acabaríamos basándonos en predicciones, especulaciones y ficciones. ¿Tendría sentido regular el teletransporte de personas hoy en día? ¿Y los viajes a la Luna en tiempos de Julio Verne? Sí, ya sé que estoy exagerando, pero llevar los ejemplos al límite es útil a veces para ver los absurdos o, en todo caso, las incongruencias de según qué planteamientos o disyuntivas.

Además, pretender evitar a toda costa lo malo que pueda pasar con una nueva tecnología, solo por el hecho de imaginárnoslo, puede evitar que ocurran otras cosas sí deseables. En un escenario así, corremos el riesgo de aprobar leyes que, en vez de proteger y guiar el adecuado desarrollo de las tecnologías, terminen obstaculizándolas, cuando no cercenándolas de raíz. Prohibir puede ser una tentación, porque es mucho más fácil que guiar. 

Por eso entiendo que la Unión Europea lleve años trabajando en un reglamento de la IA (AI Act, en inglés). En abril de 2021, la Comisión Europea presentó la Propuesta de Reglamento del Parlamento Europeo y del Consejo, que será, al final de su tramitación, la primera regulación jurídica de la IA de carácter global. Además, será directamente aplicable en todos los Estados miembros de la Unión Europea sin necesidad de normas de transposición. Cuando esté aprobada, será la primera regulación sobre IA en el mundo. Mientras tanto, no estamos desamparados, ni mucho menos. Se han ido aprobando leyes de excepcional importancia y con una relación directa con la IA, como las Leyes de Mercados y de Servicios Digitales –esta frena el flujo de contenidos digitales peligrosos, por ejemplo–, el Reglamento General de Protección de Datos (RGPD), que desde 2018 impone severas restricciones a la recopilación de datos personales, y se están presentando nuevas propuestas legislativas, como una Directiva específica sobre responsabilidad en materia de IA (Directiva RIA), o la actualización de la Directiva RPD, de responsabilidad por los daños causados por productos defectuosos. 

La idea de partida del Reglamento de IA es simple, pero el desarrollo complejo. Los distintos usos de la IA se analizarán y clasificarán en función del riesgo [potencial] que supongan para los usuarios, de modo que los distintos niveles de riesgo implicarán distintas obligaciones para proveedores y usuarios. Los sistemas de riesgo inaceptable estarán prohibidos (la manipulación cognitiva del comportamiento humano, por ejemplo). El resto se dividen entre: los de alto riesgo (como los que afectan a la gestión y explotación de infraestructuras críticas, a la salud o la asistencia en la interpretación jurídica y la aplicación de la ley); los de riesgo limitado (se obligará, por ejemplo, a la identificación como tal de cualquier inteligencia artificial con la que interaccionemos); y, finalmente, los sistemas de riesgo mínimo, que podrán usarse libremente, aunque cuenten con recomendaciones al respecto (un video juego asistido por IA, pongamos por caso). 

Además de regular lo que proceda, debe hacerse inspirando confianza a la ciudadanía y animando a las empresas a seguir invirtiendo en el desarrollo de la IA y de nuevos productos, servicios y aplicaciones. De hecho, una de las últimas disposiciones incluidas en el documento del Reglamento de IA en curso exige a los Estados miembros que promuevan la investigación y el desarrollo de soluciones de IA que apoyen resultados positivos para la sociedad y el medio ambiente, como atajar las desigualdades socioeconómicas. Permítanme que en lo relativo a alcanzar este objetivo, más allá de aplaudirlo, me muestre muy escéptico. Pero esto ya lo comentaremos otro día. 

Las aplicaciones de la IA han de ser seguras, transparentes, trazables, no discriminatorias y respetuosas con el medio ambiente. Por eso hay que regularlas. Pero la ley no puede ir por delante, ni en carrera desbocada. La ley necesita ser cauta, reflexiva y, sobre todo, concreta, dentro de su inevitable imprecisión. No se puede legislar sobre teorías o hipótesis, sino sobre realidades y sobre sus implicaciones en la sociedad. Lo otro puede llevarnos a legislar la ciencia ficción. 

Etiquetas
stats