Debates sobre la IA en la universidad

8 de enero de 2024 10:36 h

0

Nos encontramos en la intersección del avance de la Inteligencia Artificial (IA) y su uso dentro y fuera de las aulas. A lo largo de 2024, se perfila una revolución imparable en los procesos de enseñanza-aprendizaje en la universidad. El impacto de la IA generativa en la educación superior se fundamenta en dos ejes principales: por un lado, la personalización del aprendizaje para el alumnado y, por otro, la asistencia al profesorado en la creación de materiales didácticos y evaluativos. Accesoriamente, la IA se presenta como uno de los mayores desafíos el uso de la IA generativa por parte del alumnado.

Una tendencia emergente que eclosionará en los próximos cursos es la integración de LLM (Large Language Models), como ChatGPT o Bard, con LMS (Learning Management System). Más allá de la docencia íntegramente on-line, los LMS (e.g. Sakai, Blackboard, Canvas o Moodle) se han convertido en herramientas fundamentales para ofrecer soporte durante el proceso de enseñanza-aprendizaje, principalmente tras la pandemia y el confinamiento. En los próximos meses, asistiremos a la irrupción de bots GPT que ayudarán al alumnado en la resolución de dudas sobre el temario, así como una importante capa de personalización del itinerario formativo, en particular atención a las particularidades y necesidades de cada estudiante. Entre otros avances, esta integración impulsará la evaluación formativa, con avances significativos sobre la retroalimentación auténtica al alumnado.

El despliegue de la IA en la educación superior ofrece oportunidades de personalización del aprendizaje, así como de atención a la diversidad, mejorando el proceso de acompañamiento, con especial impacto sobre colectivos específicos. La IA supone un conjunto de desafíos que deben ser afrontados desde el ensanchamiento del debate académico y su extensión al conjunto de la sociedad. En función del modo en que se implemente la IA, ésta podría contribuir a potenciar (o inhibir) el pensamiento crítico de los estudiantes, dando lugar en el segundo caso a un aumento de las brechas de desigualdad preexistentes. Además, entre los riesgos destacan la dependencia tecnológica del alumnado, problemas de privacidad, y una potencial proliferación de comportamientos no éticos caracterizados por una ausencia de integridad académica.

Hace más de cuatro décadas el filósofo John R. Searle (Universidad de California, Berkeley) planteaba su conocido argumento de la habitación china, formulado como un experimento mental según describe en su artículo “Minds, brains and programs” publicado en Behavioral and Brain Sciences. En este trabajo, el profesor Searle nos instaba a reflexionar, por analogías, sobre la capacidad de comprensión efectiva de la inteligencia artificial. Hoy nos encontramos ante un reto similar respecto a la evaluación de la comprensión por parte del alumnado de los resultados de su interacción con la IA generativa y de las consecuencias que, a largo plazo, puede representar un uso continuado de la IA sobre sus capacidades cognitivas.

Searle se describía a sí mismo como individuo objeto del experimento, y se situaba de forma aislada en una habitación. Desde una entrada de la habitación, al individuo le llegaban textos en chino y llevaba a cabo el ajuste de códigos comunicativos (símbolos) necesarios, de forma que a través de una salida de la misma habitación este individuo facilitaba al resto de observadores situados en el exterior los textos traducidos al inglés. El experimento de la habitación china enfatiza la ilusión que podría producirse para los observadores externos sobre la comprensión que el individuo tendría del idioma chino y del mensaje traducido. Este experimento mental subraya la incapacidad objetiva que tendría cualquier observador externo que recibiera los textos traducidos para afirmar que el individuo objeto del experimento, no sólo comprendía ambos idiomas, sino que era capaz de comprender el mensaje resultante de la traducción.

Desde que el 30 de noviembre de 2022 se produjera el lanzamiento de ChatGPT, los estudiantes pueden generar respuestas aparentemente correctas y sofisticadas con la ayuda de la IA generativa de texto, pero sin garantizar una verdadera comprensión del contenido, al menos en atención de las posibilidades que ofrecen gran parte de los sistemas de evaluación preexistentes.

En la actualidad, el sistema de evaluación ya está virando, si bien se mueve como un gran transatlántico, con gran lentitud. Decenas de miles de profesores universitarios ya han empezado a modificar el diseño de los actos de evaluación de sus asignaturas. 

Los directores de gestión de talento en las empresas y los responsables de selección de personal vienen señalando en la resolución de problemas “en tiempo real” una fuente de identificación de habilidades aplicadas por parte de los candidatos. Probablemente, siguiendo este enfoque, los docentes deben adaptar ahora el énfasis y alcance de sus actos de evaluación. No es tan relevante qué sabe un alumno como el proceso –y las capacidades– que, a partir de ese conocimiento, le permiten identificar (delimitar) y resolver problemas de un modo sustantivo y eficiente.

Subyace la duda: ¿Comprenden los alumnos aquello que ha producido la IA generativa para ellos? ¿Podría conducir el uso intensivo de herramientas de IA a una pérdida de capacidad cognitiva a largo plazo de los futuros egresados? La capacidad de la IA para proporcionar respuestas coherentes y pertinentes sugiere cuestionarnos la verdadera capacidad de comprensión y aprendizaje. Más concretamente, apela a la capacidad de aplicación del conocimiento a la identificación, delimitación y solución de problemas reales.

El foco de la evaluación debe ponerse tanto en el proceso como en el resultado. La disrupción tecnológica que representa la IA generativa facilita la evaluación secuencial e iterativa, y el profesorado tiene la posibilidad de aprovechar esta oportunidad. Evaluar el resultado mediante un trabajo final escrito quizá haya pasado a la historia de forma irremediable, o al menos en parte. Una tendencia clara es regresar a evaluaciones síncronas desprovistas de conexión a internet (examen escrito u oral); en caso de trabajos, quizá resulte más importante que el propio trabajo o su exposición oral, la capacidad que demuestra el alumnado para responder de forma argumentada a las preguntas que plantea el profesorado durante los actos de evaluación (o por los miembros del Tribunal, en el caso de trabajos fin de grado, TFG; o fin de máster, TFM), tanto sobre el contenido del trabajo como sobre el proceso seguido paso-a-paso hasta llegar al resultado final.

¿Está el alumnado realmente aprendiendo cuando utiliza la IA generativa o mantiene y alimenta una ilusión de falso expertise? Bajo esta hipótesis, subyacen sesgos cognitivos como el descrito por el Efecto Dunning-Kruger, según el cual parte del alumnado podría llegar a situarse en un ámbito de actuación que le llevara a sobreestimar su comprensión y habilidades, sobredimensionando su autopercepción de competencia intelectual y profesional, en este caso, debido a la distorsión que podría provocar asumir como propios los resultados de la IA generativa. Esta línea argumental debe ser considerada como vía complementaria de desarrollo del debate suscitado en la opinión pública por el necesario y polémico libro del profesor Daniel Arias (Querido alumno, te estamos engañando; Temas de hoy).

Para abordar estos desafíos, es necesario un debate abierto y directo en la esfera pública. Académicos, responsables universitarios y legisladores deben abordar una reflexión serena sobre el uso de la IA y su integración con metodologías de enseñanza tradicionales. Existen múltiples casos de uso que se han ido testeando a lo largo del curso 2022-2023 y que siguen su desarrollo durante este curso 2023-2024. Algunas buenas prácticas que están ofreciendo resultados relevantes suponen la hibridación de IA generativa con metodologías activas de aprendizaje como el Aprendizaje Basado en Problemas (ABP), Método del Caso, Aprendizaje-Servicio o metodologías ágiles aplicadas al contexto educativo, como ScrumLearning.

El profesorado debe adaptar las metodologías de enseñanza integrando el uso consciente de la IA, pero es crítico impulsar la alfabetización en IA de la comunidad universitaria con el objetivo de formar en el uso ético de la IA y equilibrar el uso de los LLM con los procesos de aprendizaje curriculares, de forma que pueda garantizarse una enseñanza eficaz y significativa. 

No pueden ponerse puertas al campo en esta disrupción tecnológica. Como sociedad, tras una reflexión inicial, debemos actuar estratégicamente de forma ágil y audaz. En el contexto competitivo que le es propio a las economías abiertas, el modo en que se articule el despliegue de la transformación que representa la IA en la universidad condicionará su impacto económico y social a medio-largo plazo.

Como ocurre en todas las revoluciones, con el tiempo, aparecerán ganadores y perdedores. Este tema requiere un análisis de profundidad separado que abordaremos en un próximo artículo. Corresponde al diseño y evaluación de las políticas públicas establecer los mecanismos de internalización de todos aquellos costes que se derivan de esta transformación, y fijar puentes de redistribución que contribuyan a cerrar las importantes brechas que se ciernen sobre el Estado del Bienestar de nuestras democracias liberales.