El pasado 30 de noviembre la empresa OpenAI hizo el lanzamiento público de ChatGPT, un chatbot que puede usarse desde un navegador y que ha sido entrenado para contestar muchos tipos de preguntas, incluyendo preguntas técnicas y abstractas. Por ejemplo, se le puede pedir que escriba código en diferentes lenguajes de programación, que corrija código, que escriba informes o que conteste preguntas de examen. Es todavía un lanzamiento en pruebas, pero en general las opiniones sobre su rendimiento son muy buenas.
La tecnología en que se basa, el procesamiento de lenguaje natural, ya se usa habitualmente en aplicaciones como los chatbots de atención al cliente. Partiendo de una gran cantidad de textos escritos, se entrena a un modelo para que aprenda los patrones y estructuras del lenguaje natural y produzca respuestas parecidas a las que daría un humano en un contexto parecido. Luego, se va ajustando el modelo con el feedback de humanos. Progresivamente, se va incrementando la precisión de las respuestas, así como otras dimensiones como su sensibilidad social, por ejemplo, evitando respuestas racistas o sexistas.
El buen funcionamiento de esta inteligencia artificial (IA) hace preguntarse si IAs parecidas sustituirán a trabajadores humanos y, en tal caso, qué trabajadores se verán más afectados.
Para predecir el cambio potencial en el mundo del trabajo, en los últimos años se han propuesto distintas maneras de estimar el riesgo de sustitución. En general, se intenta estimar qué porcentaje de tareas concretas que se realizan dentro de una ocupación son sustituibles por algoritmos. Si este porcentaje es cercano al cien por cien, y automatizar es barato, es probable que a medio plazo la ocupación desaparezca o se transforme radicalmente.
Un primer intento de predecir qué profesiones se verán más afectadas por la IA es el índice de “Suitability for Machine Learning” estimado por Brynjolfsson, Mitchell and Rock en 2018. Estos autores codificaron qué tareas pueden ser realizadas por algoritmos de aprendizaje automático y luego el porcentaje que estas tareas suponen dentro del total. La conclusión es que el perfil de ocupaciones en riesgo es distinto al de previas oleadas de cambio tecnológico e incluiría tanto a personas con poca cualificación, por ejemplo conserjes, como a personas con alto nivel de formación, como especialistas en crédito o inversores. En el rango bajo de riesgo encontramos profesiones muy diversas como arqueólogos, masajistas o estucadores.
Otra aproximación relevante se presenta en un artículo publicado por Felten, Raj and Seamans en 2021. En este caso, con ayuda de estudiantes de ingeniería informática intentan identificar tipos de IA en desarrollo y los asocian a habilidades que se requieren dentro de ocupaciones. También en este caso encontramos a profesionales muy formados entre los que están en mayor riesgo como analistas de riesgos o de presupuestos, auditores, matemáticos y hasta jueces. Entre las profesiones de bajo riesgo están los bailarines, profesores de aeróbic, paletas o pintores (de casas).
Una tercera aproximación es la que propone Webb. En este caso, se basa en la coincidencia entre las descripciones de las tareas que se realizan en un trabajo y el texto de patentes de IA (por ejemplo patentes que contienen términos como “reinforcement learning”, “neural network”, etc.) en que se describe para qué han sido desarrollados los modelos. En este caso, entre las ocupaciones más expuestas encontramos los técnicos de laboratorios clínicos, los ingenieros químicos, los optometristas o los operadores de centrales eléctricas. Entre los menos expuestos están los cuidadores de animales, los profesores, o los cocineros.
A pesar de que las maneras de estimar los riesgos son diferentes, los resultados de los diferentes estudios son bastante similares. Mientras que la oleada de automatización previa afectó sobre todo a personas en trabajos rutinarios con una cualificación media baja (por ejemplo los trabajadores de cadenas de montaje), es previsible que las aplicaciones de IA se usen en tareas que actualmente realizan trabajadores cualificados en sectores como las finanzas, sectores técnicos o la abogacía. Algunos de estos trabajadores cualificados serán sustituidos y otros tendrán que aprender a realizar nuevas tareas.
El hecho de que el riesgo afecte esta vez a trabajadores más cualificados abre preguntas interesantes. En primer lugar, es posible que las personas que han invertido en su formación (tanto en términos de años de estudio como de dinero pagado por estos estudios) quieran defender esta inversión bloqueando algunos cambios. En segundo lugar, sabemos que uno de los efectos políticos de la anterior oleada de cambio tecnológico fue el aumento del voto a partidos populistas (muchos trabajadores rutinarios han cambiado su voto hacia estos partidos), pero no está claro si este viraje político se producirá también en el caso de los más educados. En tercer lugar, la aplicación de IA a profesiones cualificadas podría llevar a una compresión de salarios, aunque también a un aumento de las rentas de los propietarios de los algoritmos (típicamente personas de rentas muy altas). Finalmente, y en una nota más optimista, quizás a las personas desplazadas con alto nivel educativo les resulta relativamente más sencillo volver a formarse y aprender nuevas habilidades para adaptarse a los cambios que se avecinan.
El pasado 30 de noviembre la empresa OpenAI hizo el lanzamiento público de ChatGPT, un chatbot que puede usarse desde un navegador y que ha sido entrenado para contestar muchos tipos de preguntas, incluyendo preguntas técnicas y abstractas. Por ejemplo, se le puede pedir que escriba código en diferentes lenguajes de programación, que corrija código, que escriba informes o que conteste preguntas de examen. Es todavía un lanzamiento en pruebas, pero en general las opiniones sobre su rendimiento son muy buenas.
La tecnología en que se basa, el procesamiento de lenguaje natural, ya se usa habitualmente en aplicaciones como los chatbots de atención al cliente. Partiendo de una gran cantidad de textos escritos, se entrena a un modelo para que aprenda los patrones y estructuras del lenguaje natural y produzca respuestas parecidas a las que daría un humano en un contexto parecido. Luego, se va ajustando el modelo con el feedback de humanos. Progresivamente, se va incrementando la precisión de las respuestas, así como otras dimensiones como su sensibilidad social, por ejemplo, evitando respuestas racistas o sexistas.