Las trampas del estudio viral de OpenAI sobre las “profesiones afectadas” por la inteligencia artificial
El 100% de las tareas que realizan los diseñadores web pueden ser realizadas por inteligencias artificiales como ChatGPT en la mitad de tiempo o menos. Lo mismo le ocurre a los traductores, los periodistas, los asesores fiscales, los matemáticos, los escritores, los asistentes administrativos, los contables o los auditores. En el caso de los traductores, los relaciones públicas, los encuestadores o algunos ingenieros informáticos, la exposición de su profesión a esta nueva tecnología está entre el 75% y el 95%.
Son los datos de un informe publicado este lunes por OpenAI que se ha hecho viral en las redes sociales. Con un método propio, los investigadores de la empresa desarrolladora ChatGPT y GPT-4 han señalado los oficios que pueden verse más “expuestos” a sus productos. “La influencia se extiende a todos los niveles salariales, con los empleos de mayores ingresos potencialmente más expuestos”, avisan.
Según sus conclusiones, las profesiones más afectadas son aquellas que tienen que ver con el procesamiento de información, algo en lo que sus algoritmos podrían tomar el testigo. “Nuestros resultados indican que aproximadamente el 80% de la mano de obra estadounidense podría ver afectado al menos el 10% de sus tareas laborales por la introducción de las GPT, mientras que alrededor del 19% de los trabajadores podría ver afectado al menos el 50% de sus tareas”, señala el documento.
El informe cita que “las ciencias y el pensamiento crítico” serán factores claves para evitar la automatización, ya que “las profesiones que requieren estas habilidades tienen menos probabilidades de verse afectadas”. “Por el contrario, las habilidades de programación y escritura muestran una fuerte asociación”, destacan, por lo que “son más susceptibles de verse influenciadas” por sus inteligencias artificiales generativas de texto.
El documento está firmado por tres investigadores que trabajan directamente para OpenAI y un cuarto especialista de la Universidad de Pennsylvania. Se ha compuesto con la forma de un estudio académico y como tal lo han presentado un buen número de divulgadores, youtubers o tiktokers para generar nuevo contenido sobre las posibilidades de la inteligencia artificial, uno de los temas de moda. Sin embargo, el informe ha generado críticas de la comunidad académica y especialistas en IA ajenos a OpenAI por su falta de fundamento científico y el hecho de no haber sido revisado por investigadores independientes.
“Es ridículo”, destaca Emanuele Cozzo, investigador de la Universidad de Barcelona y doctor en redes y sistemas complejos. “Han cogido gente que trabaja para OpenAI directamente y han calculado qué nivel de impacto tendrá GPT-4 sobre una serie de profesiones. Luego lo han comparado con lo que dice el mismo GPT-4 y eso lo están vendiendo como una predicción fiable de lo que va a pasar”, afea el experto: “Realmente, no hay mucho margen más allá de la fe para creerse lo que dicen”.
“Es bastante extraño”, coincide Ariel Guersenzvaig, investigador en ética de la inteligencia artificial y profesor en la facultad de Diseño e Ingeniería en la Universidad de Vic-UCC. “Ni siquiera concretan bien cómo están definiendo qué tareas asignan a cada profesión. Sin esa limitación, no se puede comparar lo que hace una persona con lo que hace una máquina. Obviamente todo esto va a tener un impacto en el mercado laboral, pero es absurdo investigarlo de la manera que lo están haciendo”, afirma.
elDiario.es se ha puesto en contacto con OpenAI para incluir su posición en esta información, pero la empresa no ha contestado a los requerimientos. En el informe, sus investigadores admiten que este tiene “limitaciones”. Entre ellas señalan el hecho de que solo se haya utilizado como contexto el mercado estadounidense, pero también la definición de lo que implica cada tarea de las profesiones que han analizado: “Reconocemos que puede haber discrepancias entre el rendimiento teórico y el práctico, especialmente en tareas complejas, abiertas y específicas de un dominio”.
Los exámenes que aprueba ChatGPT
Es la segunda vez en una semana que OpenAI levanta este tipo de críticas con sus afirmaciones del potencial de sus productos. La primera fue en la presentación de GPT-4, la actualización del modelo algorítmico que sirve de base a ChatGPT. OpenAI presentó una serie de pruebas de las capacidades del nuevo sistema, entre las que estaban su puntuación al realizar distintos exámenes destinados a personas, como el de acceso a la abogacía o el equivalente al MIR en EEUU. En cambio, no utilizó ninguna de las pruebas de referencia que existen para evaluar el rendimiento de la inteligencia artificial.
“Esas pruebas no están diseñadas para máquinas, están diseñadas para personas. No es una buena unidad de medida. Es como evaluar la valentía de una Roomba en función de si entra o no a una habitación sin que la hayan invitado. Ni es valiente ni deja de serlo. En el caso de los exámenes es lo mismo: no se pueden comparar las capacidades de una inteligencia artificial con las de un abogado porque ese sistema pase el examen para ejercer la abogacía”, desarrolla Guersenzvaig.
Es como evaluar la valentía de una Roomba en función de si entra o no a una habitación sin que la hayan invitado
A la vez que empezaba a utilizar este tipo de baremos para comunicar las capacidades de su tecnología, OpenAI daba un giro a la que había sido su estrategia para compartir sus nuevos desarrollos. La empresa decidió por primera vez ocultar al resto de la comunidad científica los detalles del funcionamiento y entrenamiento de GPT-4. Hasta ahora siempre había compartido esta información, al igual que la gran mayoría de sus rivales. Se trata de una práctica hasta ahora común en el campo de la inteligencia artificial y que ha propiciado que esta tecnología evolucione rápidamente en los últimos años, con unos investigadores apoyándose en los descubrimientos de otros.
La decisión de no hacer transparente el código de la IA también impide que los especialistas puedan comprobar si las aseveraciones que OpenAI sostienen. Tanto en las profesiones que GPT puede automatizar como en lo referente a sus puntuaciones en los exámenes, ya que es imposible comprobar si ChatGPT no ha recibido un entrenamiento especial antes de someterse a ellos (como asegura la empresa).
“Es imposible evaluar cualquier cosa en esos informes”, recalca Emanuele Cozzo. “No hay investigador que pueda saber si lo que dicen es cierto sin conocer el entrenamiento de sus modelos o su arquitectura. En el famoso caso de Pedro Sánchez tiene barba, por ejemplo, es imposible saber si el sistema da esa respuesta por lo que se llama una 'alucinación de la IA', o si es porque está usando una base de datos contaminada por imágenes manipuladas de Forocoches”.
La justificación de OpenAI para cerrar los detalles de sus sistemas al público es que se dieron cuenta de que su enfoque anterior era erróneo. “Nos equivocamos. Rotundamente, estábamos equivocados”, ha asegurado Ilya Sutskever, uno de sus cofundadores, al medio especializado The Verge. “Si crees, como nosotros, que en algún momento la inteligencia artificial va a ser muy, muy potente, entonces no tiene sentido abrir el código fuente. Es una mala idea... Espero que dentro de unos años sea completamente obvio para todos que la IA de código abierto no es una buena idea”, afirmó, una postura que sostiene por la “competencia” que existe en este campo pero también por motivos de “seguridad”.
5