Las nuevas inteligencias artificiales ya no solo nos ganan al ajedrez y al Go; también deciden las compras y ventas de nuestros mercados de valores, nos preparan ofertas comerciales personalizadas, gestionan la logística de nuestras redes y evalúan nuestra capacidad de crédito. En breve nos atenderán por teléfono, diagnosticarán nuestras enfermedades, conducirán nuestros coches, barcos y camiones, procesarán nuestros pleitos y contratos, gestionarán nuestras factorías, se ocuparán del papeleo de nuestras empresas...
Según todos los indicios la nueva Inteligencia Artificial se dispone a dejar a millones de personas sin trabajo, desde teleoperadores a vendedores de tienda pasando por camioneros, marinos, abogados o médicos especialistas. Pero también creará nuevos empleos originales en profesiones antes inimaginables. Bienvenidos al nuevo mundo del trabajo post-IA en el que son los ordenadores quienes piensan y los humanos nos encargamos de ellos.
Las proyecciones suenan apocalípticas: hasta 70 millones de puestos de trabajo evaporados en menos de una década solo en EEUU reemplazados por Inteligencias Artificiales que pueden mejorar el rendimiento de casi cualquier empresa. Lógico: el software trabaja 24 horas al día, no tiene vacaciones ni bajas y se puede conectar y desconectar sin indemnizaciones ni EREs.
Si las capacidades de los programas de IA eran muy limitadas, ahora son cada vez mayores. Y si el uso de estas técnicas estaba limitado a empresas especializadas, ahora Amazon vende IA-como-servicio e Intel acaba de lanzar un sistema de red neuronal en un USB. Ya no se discute si los sistemas de conducción automática llegarán a nuestros coches y camiones, sino cómo habrá que adaptar las leyes y cuándo se esfumarán los 2,5 millones de empleos de camionero en los EE UU. El milenarismo quizá no llegue, pero la Inteligencia Artificial ya está aquí.
La buena noticia es que además de quitar trabajos la Inteligencia Artificial también los creará nuevos, lo que podría rebajar la pérdida neta a menos de 9 millones de empleos (en EEUU) según algunas estimaciones. Y no solo trabajos de ingenieros informáticos altamente cualificados, sino también de nivel intermedio y bajo. Porque las nuevas técnicas para dotar de capacidad de pensar a las máquinas también necesitan humanos, sobre todo en tres áreas: Educación y entrenamiento, Análisis y explicación, y Mantenimiento y corrección de errores.
Enseñanza: entrenamiento y empatía
Los avances en Inteligencia Artificial en campos como la visión artificial o el reconocimiento de voz o de imágenes dependen de técnicas llamadas de Deep Learning (aprendizaje profundo). Para conseguir el objetivo buscado, estructuras informáticas como redes neuronales son expuestas a grandes bases de datos de manera que 'aprenden' por sí mismas a establecer relaciones entre datos de entrada y de salida. Estos sistemas se han revelado como muy capaces haciendo posible por ejemplo el reconocimiento de caras individuales, la descripción de imágenes en lenguaje natural o la transcripción de lengua hablada. Buena parte de los robots que se disponen a entrar en el mercado de trabajo se basan en este tipo de programación.
El modo más elemental de conseguirlo es añadir a la red empresarial un módulo de inteligencia artificial que monitorice y aprenda cómo trabajan los empleados para desde ahí establecer su propio sistema. Así algunas empresas que desarrollan sistemas de conducción automática de camiones trabajan con camioneros. Pero para que una IA funcione de modo óptimo no basta con replicar el modo actual de trabajo: el resultado final puede depender de una educación adecuada.
La eficiencia de estos sistemas viene determinada por que las bases de datos usadas para entrenarlos carezcan de sesgos; de no ser así los resultados pueden ser muy erróneos. Así le ocurrió a Microsoft con su chatbot Tay, un experimento de interacción en Twitter con capacidad de aprendizaje que en menos de un día y a través de su interacción con trolls adquirió tendencias de extrema derecha, antifeministas y transfóbicas, por lo que Microsoft lo desconectó.
En este caso una base de datos de aprendizaje no supervisada causó un desarrollo erróneo del sistema. Algo similar le ocurrió a Google cuando introdujo pequeños resúmenes de noticias generados mediante IA en sus resultados, que fueron 'desviados' por fuentes de noticias políticamente cargadas. Y no son los únicos casos: bases de datos de imágenes sesgadas a favor de personas de raza blanca puede provocar que los sistemas de reconocimiento de imagen exhiban tendencias racistas. Según uno de los más viejos refranes de la informática Garbage In, Garbage Out (si entra basura, sale basura).
Harán falta especialistas en 'educación' de IAs para eliminar este tipo de problemas y su trabajo será especialmente complicado cuando se trate de formar robots para interactuar con las personas como chatbots de atención al cliente. Para ello habrá que entrenar a los programas en empatía y ayudarles a reconocer cosas como el sarcasmo. Los entrenadores de IAs deberán usar estrategias como contar historias a las máquinas [pdf] para ayudarles a entender el funcionamiento de la mente humana y enseñarles a detectar entonaciones. Si añadimos complicaciones como la diversidad de culturas existentes en el mundo y la necesidad de adaptarse a las peculiaridades locales el entrenamiento de IAs será un fértil yacimiento de empleo futuro para humanos. Con títulos como Formador de tonos y significado en el Lenguaje del Usuario, Modelador de Interacciones con Máquinas Inteligentes o Entrenador de Punto de Vista Global. Para esta clase de trabajos ni siquiera será necesaria una formación muy avanzada: cualquier persona con empatía y un entrenamiento mínimo podrá hacerlo.
Análisis: explicación y los porqués
Otro de los campos más prometedores para el desarrollo de nuevos empleos es la 'explicabilidad' de las IAss. La consecuencia de las técnicas de 'Deep Learning' es que las decisiones de la Inteligencia Artificial a veces no son obvias; de hecho puede ser imposible saber por qué un programa hace una cosa y no otra. Algo que puede resultar filosóficamente fascinante, ya que nos expone a modos de pensamiento ajenos a la experiencia humana, pero que es inaceptable desde muchos puntos de vista. Para que los inversores confíen en un algoritmo de compraventa de acciones habrá que explicarles cómo funciona; para que una compañía de seguros asegure un vehículo autónomo exigirá conocer sus capacidades. Incluso desde el punto de vista legal es clave: la responsabilidad de un accidente que involucre a una IA puede depender de cómo tomó una decisión, y lo mismo sucede con una acción potencialmente discriminatoria. ¿La culpa es del programador, del implicado, o del robot? Para ello hará falta entender el funcionamiento interno de la mente artificial.
La Unión Europea aprobó en 2016 la Regulación General de Protección de Datos que establece entre otras una nueva obligación: a partir de 2018 cuando un algoritmo utilice datos personales en su toma de decisiones su propietario deberá poder proporcionar a los sujetos “información significativa sobre la lógica” del proceso. Cuando una IA actúe se deberá poder explicar por qué ha tomado una decisión. La necesidad es tan obvia que el Pentágono también trabaja en el desarrollo de inteligencias artificiales con esta capacidad. El problema es que con el 'Deep Learning' este proceso no es sencillo: la conexión entre la entrada de datos y la decisión de salida no la establece el programador, sino el entrenamiento del sistema, y puede no ser obvia.
Hay técnicas útiles como la LIME (explicaciones locales interpretables independientes del modelo, en sus siglas en inglés), que puede ayudar a comprender cuáles son las variables de entrada que provocan determinadas decisiones de salida sin necesidad de conocer el proceso interno, pero harán falta especialistas. Gente con títulos como Analistas de transparencia, Estratega de Utilidad de AIs o Diseñador de Contextos, además de 'forenses' digitales para actuar en juicios.
Mantenimiento: control y resolución de errores
La semana pasada un robot de vigilancia Knightscope K5 que patrullaba una oficina en Washington acabó en el interior de una fuente para refocile del todo Twitter. Los K5 están programados para reconocer sus alrededores y moverse de modo autónomo; la empresa afirma que en breve estarán equipados con sistemas de detección de armas y se conectarán a Watson, la IA de IBM, para tomar sus propias decisiones. Obviamente el sistema de navegación del robot sufrió un error catastrófico, lo que sirve para ilustrar otra fuente de futuros empleos: la resolución de problemas. Porque por muy inteligente que sea la IA, fallará, y alguien tendrá que hacerse cargo del desaguisado.
Por supuesto harán falta técnicos de mantenimiento para las máquinas, cada vez más complejas, y también para los algoritmos y sistemas de IA. Pero además será necesario comprobar que las decisiones tomadas por la máquina son correctas, éticas, legales y que se ajustan a la estrategia de la empresa. El Gestor de Cumplimiento Ético tendrá que asegurarse de que los algoritmos no discriminan a determinados grupos o emplean técnicas irregulares o prohibidas; el Gestor de Relaciones con las Máquinas deberá comparar la efectividad de los distintos algoritmos, descartando los menos rentables y 'ascendiendo' a los más eficaces. Y las empresas necesitarán Economistas de Automatización para analizar áreas en las que es necesario aplicar nuevos sistemas o eliminar los que ya no son útiles, rediseñando los procesos.