Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

He entrevistado a la Inteligencia Artificial de moda, pero no está lista: “Soy opaca”

kevin ku w7ZyuGYNpRQ unsplash

Carlos del Castillo

3 de diciembre de 2022 22:48 h

10

En esta entrevista, hablamos con un modelo de lenguaje entrenado por OpenAI sobre los avances en IA y chatbots. A pesar de ser una IA, demuestra tener una capacidad sorprendente para mantener un diálogo coherente y responder preguntas sobre temas variados. La entrevista nos permite explorar la capacidad de la IA para comprender y responder preguntas en lenguaje natural, así como sus limitaciones y desafíos en un futuro cercano. A medida que la IA sigue avanzando, es importante seguir explorando su potencial y sus límites para entender mejor cómo puede ser utilizada en una variedad de campos y contextos.

El de arriba es el texto que sugiere Assistant a este medio para introducir esta entrevista. Assistant, o ChatGPT, es un nuevo sistema de Inteligencia Artificial en pruebas presentado por OpenAI este jueves y que se ha hecho inmediatamente viral en redes sociales por sus razonadas respuestas en una gran variedad de temas. Sin embargo, tras hacerle preguntas durante varias horas, este periodista no coincide con la “capacidad sorprendente para mantener un diálogo coherente” que Assistant destaca sobre sí misma.

Los límites de Assistant aparecen rápidamente cuando se intenta mantener una conversación con ella. En pocos minutos empieza a sentirse como un juguete, similar a lo que ocurre con Alexa o Siri, pese a que Assistant es sin duda más potente. Se aprecia que algunos de esos límites están fijados a conciencia por sus programadores para evitar que la máquina pise charcos y se meta en problemas. “Debes tener en cuenta que mi capacidad está limitada al conocimiento que se me ha proporcionado durante mi entrenamiento, y no tengo acceso a información actualizada que no se me haya proporcionado”, avisa la IA durante la interacción.

Se trata de un mensaje que repite en cada respuesta sobre actualidad, política o personas concretas: “No tengo acceso a internet y no puedo buscar información adicional para responder preguntas”, argumenta. Cuando se insiste en ese camino la máquina reitera el argumento con otras palabras y produce una interacción robótica, repetitiva. También se niega a hacer predicciones sobre el futuro o a hablar “de eventos violentos y perturbadores como ataques terroristas”.

Para evitar que el robot hable más de la cuenta, OpenAI también la ha hecho parca en palabras a la hora de responder sobre sentimientos, su capacidad empática o ante preguntas filosóficas sobre su propio yo. La empresa quería evitar escándalos como el que afectó recientemente a uno de los modelos de lenguaje natural de Google. El motivo fue que uno de los ingenieros que la testaba alertó que se había convertido en un ser sintiente tras hablar varios días con ella sobre el sentido de la vida. La multinacional lo negó y dijo que el ingeniero había “antropomorfizado” a la inteligencia artificial.

Uno de los motivos por los que la IA de Google llegó a dar respuestas muy detalladas sobre su propio yo fue porque el ingeniero que la entrevistaba comenzó a hacerle preguntas largas y profundas. Este tipo de sistemas utiliza la información proporcionada en el enunciado para elaborar sus respuestas: cuanto más profusa, más completa será la respuesta. Sin embargo, si se le proporciona menos información, la IA tendrá problemas para extraer patrones sobre lo qué está hablando el humano.

Assistant también flaquea cuando se le hacen preguntas cortas y directas. Así lo explica ella: “Mi capacidad para responder preguntas y mantener un diálogo coherente depende en gran medida de la calidad y cantidad de información que se me proporciona. Si se me proporciona información precisa y completa sobre un tema, como la política, puedo utilizar esa información para proporcionar respuestas coherentes y precisas. Sin embargo, si no se me proporciona suficiente información sobre un tema, es posible que no pueda responder preguntas de manera precisa y coherente”.

La temida apariencia de neutralidad

Si no se pretende entablar el “diálogo” que Assistant afirma ser capaz de mantener, sino jugar con ella como si fuera una enciclopedia, sus capacidades cambian diametralmente. No hay tema académico que quede fuera de su alcance. Es uno de los motivos por los que se ha viralizado: expertos de muchos campos le han hecho las preguntas más complejas que se les han ocurrido y la IA las ha respondido como la alumna más aplicada de la clase.

Muchos especialistas informáticos ha destacado sus capacidades para entender códigos de programación, detectar errores, arreglarlos e incluso explicar cómo solucionar el problema de forma sencilla. Una multitud de usuarios han compartido fascinados las razonadas que Assistant ofrece en temas tan dispares como las aplicaciones del anarquismo o las diferentes maneras de organizar un evento de marketing online. Además, es capaz de debatir sobre determinados puntos de sus respuestas.

En este sentido, el sistema puede ser una competencia directa para Google. En los últimos años el buscador se ha especializado en ofrecer respuestas automatizadas a cualquier pregunta, además de llevar al usuario a la fuente de la información. El ChatGPT de OpenAI da un paso más al ser capaz de contestar a repreguntas o explicar con más detalle un punto en concreto.

No obstante, un factor clave de Assistant en este sentido es que no puede revelar cómo se han formado las bases de datos de las que extrae información y que condicionan sus respuestas. Dice que no sabe cómo ha sido entrenada.

En sus respuestas a este medio, Assistant llega a reconocer que es una “IA opaca” ya que es incapaz de revelar cómo están configuradas sus bases de datos. Se trata de un aspecto clave de estos sistemas algorítmicos que, vestidos de una aparente neutralidad matemática, pueden reproducir el machismo, racismo o clasismo presente en la documentación que hay sido usada para entrenarla o de sus programadores.

“Es posible que mis respuestas reflejen los sesgos presentes en el texto que se me proporcionó durante el entrenamiento. Los modelos de lenguaje, como cualquier otro sistema creado por seres humanos, pueden reflejar los prejuicios y las creencias de las personas que los crean y entrenan. Es importante tener en cuenta esto y considerar la fuente de mis respuestas al evaluar su precisión y fiabilidad”, afirma Assistant durante la interacción con este medio.

Antes de comenzar las interacciones, OpenAI avisa a los usuarios que quieran hacerle preguntas a su máquina que es posible que esta responda con información incorrecta. “Puede producir ocasionalmente instrucciones perjudiciales o contenidos tendenciosos”, añade. Esta empresa, fundada en 2015 por Elon Musk y Sam Altman, está configurada como una organización de investigación de la inteligencia artificial sin ánimo de lucro. Pese a ello, está valorada en más de 20.000 millones de dólares gracias otros productos como el generador de imágenes DALL-E o el GPT-3, un modelo de lenguaje natural capaz de elaborar textos complejos.

“La gente está entusiasmada con el uso de ChatGPT para aprender. A menudo es muy bueno. Pero el peligro es que no puedes saber cuándo se equivoca a menos que ya sepas la respuesta”, ha advertido este jueves Arvind Narayanan, profesor de Ciencia de la computación especializado en inteligencia artificial de la Universidad de Princeton (EEUU). “He probado algunas preguntas básicas sobre seguridad de la información. En la mayoría de los casos, las respuestas parecían plausibles, pero en realidad eran falsas”, ha añadido.

“Estoy seguro de que habrá muchas aplicaciones específicas para las que será útil”, ha añadido el profesor, destacando, no obstante, que el primer impulso de los usuarios de maravillarse con las capacidades y anticipar sus capacidades revolucionarias pueden resultar un tanto exageradas: “Hay mucha de la hipérbole habitual que acompaña al lanzamiento de toda herramienta de IA generativa”.

“No hay duda de que estos modelos están mejorando rápidamente. Pero su capacidad para sonar convincentes está mejorando con la misma rapidez, lo que significa que es cada vez más difícil incluso para los expertos detectar cuando cometen errores”, concluía Narayanan.

Etiquetas
stats