Una de las principales conclusiones del informe Draghi (The future of European competitiveness-Part A. A competitiveness strategy for Europe) afirma que la falta de competitividad de la industria digital europea puede tener su origen en la existencia de un marco de hiperregulación. Recientemente hemos sabido que las industrias que algunas de las industrias de Silicon Valley han decidido no abrir sus más recientes tecnologías en materia de inteligencia artificial al público de la Unión Europea debido al riesgo regulador. En este contexto, es razonable plantearse si la UE está adoptando la estrategia adecuada en un contexto en el que se puede hablar de geopolítica de la inteligencia artificial y si esta estrategia la va a conducir directamente al fracaso o a la pérdida de la carrera.
Sin embargo, es probable que esta discusión se esté planteando desde un punto de vista ciertamente maniqueo. Así, para la industria, la Unión Europea estaría planteando barreras insostenibles que le impiden operar en nuestro mercado. Desde el otro lado, se estaría realizando una afirmación radical de la normatividad que chocaría frontalmente con la filosofía empresarial que existe al otro lado del Atlántico. Es probable que uno una y otra aproximación admitan un enfoque que pase del blanco y negro a la escala de grises.
En primer lugar, es bueno hacer historia y recordar de dónde venimos. Y la verdad es que el panorama no es en absoluto alentador. Lo que sucedió cuando las autoridades administrativas independientes y los tribunales de la UE no actuaron con el derecho vigente a su disposición no fue otra cosa que la ley de la jungla. Si el lector prefiere una formulación más suave digamos que las empresas comenzaron a moverse rápido y a romper cosas. Y hoy estamos pagando el precio de aquella filosofía corporativa. Así, en los últimos años hemos asistido a significativos intentos de manipular nuestra democracia. Algunos de ellos como el BREXIT o la manipulación del votante en las elecciones norteamericanas culminaron con éxito gracias a la tecnología proporcionaba por Cambridge Analytica. Y hoy podemos apreciar como el uso de los grandes modelos del lenguaje en el perfilado de los usuarios de redes sociales y su reutilización para configurar su experiencia de usuario, llamémoslo por su nombre para definir filtros burbujas ajustados al target publicitario, permite a terceras potencias y organizaciones delincuenciales delictivas, producir severos daños en nuestras democracias, en la reputación de nuestras empresas y en la economía.
Por otra parte, tenemos un serio problema con los menores. Estamos asistiendo sin duda a los resultados perniciosos de 20 años de desregulación, o si se prefiere, de inacción de las autoridades a la hora de garantizar principios básicos que podemos encontrar en los tratados internacionales y en la mayoría de códigos civiles existentes. Esto es la garantía del interés superior del menor, el principio de no maleficiencia y la exigencia de responsabilidad por daños a aquel que los cause intencional o negligentemente. Cada día nos despertamos temerosos de la siguiente noticia. ¿A qué grupo de niños se le ocurrirá hoy crear una deep fake con las caras de sus compañeras en forma de fotografía o de película porno fabricada con inteligencia artificia? ¿Cuántas nuevas adicciones fomentadas por las redes sociales y las aplicaciones móviles descubrirán psicólogos y pediatras? ¿Cómo está cambiando la plasticidad neuronal y la capacidad de aprendizaje la adición a las pantallas? Así que con toda certeza lo que resulta inmoral desde un punto de vista sociales apostar de modo claro y determinante por la desregulación. Porque ya sabemos a dónde nos conduce. Nos lleva a la pérdida de dignidad humana, a la transferencia de un control sobre nuestra identidad digital y sobre nuestra personalidad a entidades empresariales que pueden negociar con ellas en el mercado. Y esto en materia de inteligencia artificial puede producir consecuencias devastadoras.
Del otro lado también resultaría muy alegre afirmar que la regulación europea es excelente, que resolverá todos los problemas y que seguramente es la mayor pieza regulatoria que vieron los tiempos. No es así. En 2024 cualquier experto les dirá que existen severas carencias en la garantía del derecho fundamental a la protección de datos en la mayor parte de las organizaciones. Por otra parte, desde el punto de vista del conocimiento experto puede afirmarse que el modelo de despliegue en esta materia se ha caracterizado por una aproximación carente de diálogo sectorial. Si la ley es excelente, el nivel de excelencia de las guías publicadas por muchas autoridades de protección de datos, y es probable que en el futuro por parte de las autoridades de inteligencia artificial, a veces es tan excelso que resulta de imposible aplicación.
No olvidemos que la regulación de nuestros derechos desde el punto de vista digital se caracteriza por una dimensión prestacional de alto impacto económico. La implementación del conjunto de medidas necesarias para la gestión del riesgo y para la programación de los sistemas de información exige un alto nivel de inversión no sólo en términos de análisis de datos y programación, sino también desde el punto de vista de la contratación de expertos en el ámbito del derecho y de la ética. Y estos costes, y en esto Draghi desgraciadamente tiene razón, están fuera del alcance de la pequeña y mediana empresa de la Unión Europea. Y así se produce una situación absolutamente contrafactual. Aquellos que rechazan cumplir con las normas de la UE son los que poseen el suficiente músculo financiero para garantizar el cumplimiento. Mientras que los que aparentemente se beneficiarían en términos competitivos del marco regulador europeo carecen de recursos para cumplirlo.
Por eso no basta con ser gigantes reguladores. Es necesario adoptar una estrategia basada en políticas públicas que haga posible y viable el cumplimiento de nuestras normas en el seno de las organizaciones empresariales y públicas en nuestro propio territorio. Ello implica que los reguladores ofrezcan soluciones de cumplimiento normativo viables y sobre todo consensuados. Si además proporcionan estándares y metodologías de libre acceso ahorrarían enormes cantidades de dinero a las pequeñas y medianas empresas que tratan de prosperar en el ámbito de la innovación y la investigación. Del mismo modo, los servicios de intermediación que van a surgir al amparo del Reglamento de Gobernanza de Datos y otras normas como las relativas al Espacio Europeo de Datos de Salud deberían no sólo intermediar en el mercado, facilitando el acceso seguro a los datos, sino también proporcionar capacidades de prestar soporte al cumplimiento en origen por las pequeñas y medianas empresas que van a requerir sus servicios.
Así pues, esta discusión no puede enfocarse desde el maniqueísmo de unos o de otros. Desde el punto de vista de los objetivos que se ha planteado la Unión Europea en esta materia es fundamental impulsar las capacidades de sus investigadores, -y del tejido productivo-, para ser capaces de desplegar herramientas de IA susceptibles de competir en los mercados globales aportando como valor añadido la seguridad, la robustez y el compromiso ético y jurídico con la garantía de los derechos fundamentales y el sistema democrático. De no ser así, tarde o temprano nos veremos obligados a abrir las puertas a aquellas soluciones cuyo desarrollo no se ajusta a los estándares éticos cuando por cualquier razón resulten indispensables. ¿O es que acaso si alguien desarrolla un modelo de sistema inteligencia artificial fuera de la Unión Europea que nos ayude a gestionar la próxima pandemia no lo vamos a comprar?