Karel Capek en su famosa obra de teatro 'R.U.R.' (Robots Universales Rossum) los llamó en 1921 “personas artificiales”. Ahora el Parlamento Europeo se ha pronunciado a favor de, cuando llegue el momento necesario, otorgar una “personalidad electrónica” a los robots que con suficiente autonomía de decisión podrían ser también considerados “personas electrónicas”. De momento, se trata más bien de consideraciones de responsabilidad jurídica, pero el informe que se ha votado, y que ha impulsado la socialdemócrata luxemburguesa Mady Delvaux, entra también en consideraciones morales, aunque finalmente la resolución votada se ha quedado a las puertas de las sociales.
Esta vez, en una Europa que va retrasada en este campo, tanto en sus reflexiones como en producción (con excepciones, pues Alemania, es el quinto fabricante de robots industriales del mundo), el Parlamento Europeo se ha adelantado, aunque sólo sea en el terreno de los robots civiles, no los militares, para pedir a la Comisión Europea que actúe, que estudie la posibilidad de crear una agencia europea para la robótica y la inteligencia artificial, y que se impulse una Carta para la Robótica.
Pero populares, liberales y conservadores (esencialmente euroescépticos) han rehusado que la Cámara entrara en las posibles consecuencias negativas de estas máquinas para el empleo, que es uno de los retos esenciales que plantea la “robolución”. Pues muchos estudios apuntan que la automatización va a destruir muchos más empleos de los que cree. ¿Qué hacer con las personas, de carne y hueso, sobrantes?
En un loable ejercicio de prospectiva, el Europarlamento plantea problemas que están a la vuelta de la esquina –o en parte ya entre nosotros–, como la necesidad de establecer normas comunes, o la responsabilidad de las acciones de algunos robots civiles. Actualmente la única directiva aplicable a los robots sólo cubre defectos de fabricación.
El informe no propugna ninguna legislación inmediata, sino estar preparados por si es necesario. Propone “crear a largo plazo una personalidad jurídica específica para los robots, de forma que como mínimo los robots autónomos más complejos puedan ser considerados personas electrónicas responsables de reparar los daños que puedan causar”. Y posiblemente, añade “aplicar la personalidad electrónica a aquellos supuestos en los que los robots tomen decisiones autónomas inteligentes o interactúen con terceros de forma independiente”. Es lo que puede ocurrir pronto con los vehículos autoconducidos o autónomos, y más aún con las máquinas que se vayan mejorando y programando a sí mismas, casi independientemente de sus programadores.
La “personalidad” es una cuestión discutible. Pues los responsables de una máquina son esencialmente sus constructores o propietarios. Pero estas máquinas pueden acabar desarrollándose por sí solas, más allá de sus “creadores”. Una recomendación sensata del Parlamento es reducir la responsabilidad de los “creadores” del robot en proporción a la autonomía adquirida por la máquina o el software.
Podría pasar como con las empresas o los Estados, que no son personas, mas sí tienen personalidad jurídica, con derechos, y deberes y, sobre todo, responsabilidades legales. Incluso, como apunta algún análisis, los robots avanzados del futuro no tan lejano podrían ser tratados como “objetos legales” pues tendrían cuerpos físicos, aunque también podrían consistir en software avanzado. También, como plantea el informe, hay una cuestión de a quién corresponde la propiedad intelectual de lo que “cree” o “invente” un robot por sí mismo.
En un futuro no inmediato se planteará si un robot que llegue a pensar, decidir y actuar por sí mismo tiene derecho a tener algunos derechos. En los aspectos morales, la resolución y el informe votado por la Eurocámara se queda corto. En sus propuestas de un código ético para los robots, sigue anclado en las famosas cuatro leyes de la robótica (la cuarta, sobre la defensa de la humanidad, la añadió después) que quien las ideara, el escritor Isaac Asimov en 1942, puso después en duda, y que, por cierto, los seres humanos no aplican entre sí. El informe propone medidas futuras concretas como que todo robot se pueda parar por voluntad humana.
Es lamentable, sin embargo, que no haya podido finalmente entrar, aunque sea para pedirle un estudio a la Comisión, en la cuestión del desempleo tecnológico que John Maynard Keynes anunciara ya en 1930, y que ahora se ha convertido en uno de los temas candentes de la robotización. No se trata de neoludismo, sino de no mirar para otro lado ante una revolución industrial que no es como las anteriores. Por ejemplo, según el Foro Económico Mundial la automatización y la inteligencia artificial van a hacer perder su empleo a 7,1 millones de personas en 15 economías líderes en cinco años, es decir mañana, y sólo van a crear dos millones en su lugar. De hecho, algunos de sus efectos se están haciendo notar ya.
Mientras los europeos debatimos, y no actuamos en estos campos, el Ministerio de Economía, Comercio e Industria de Japón, la primera potencia robótica del mundo, ha desarrollado Estrategia Nacional de Robots. Otros países, como China, también. Japón, además, una logró ya en 2014 que la ISO (Organización Internacional de Normalización en sus conocidas siglas en inglés) aprobara por vez primera una normal global de seguridad (la 13482) para los robots de servicios, que son los que más frecuentemente entran en contacto con los humanos.
La UE debería avanzar hacia una estrategia a escala europea, y evitar también que la robótica se convierta una nueva fuente de divergencia entre las economías de sus Estados miembros. Pero algo es algo. El Parlamento Europeo ha dado un primer paso a escala de la Unión. Le corresponde ahora a la Comisión dar el segundo. Y mientras, cada Estado por su cuenta.