¿Qué o quién puede hacer la escuela más inteligente?
¿Qué está pasando en educación con ChatGPT y la inteligencia artificial? La ley de Amara, elaborada por el investigador estadounidense Roy Carles Amara, afirma que los seres humanos, a lo largo de la historia, hemos tendido a sobrestimar el impacto de la tecnología a corto plazo y a subestimarlo a largo plazo. Quizá el estado de opinión creado en los últimos meses sobre un sistema ‘inteligente’ de charla online, ChatGPT, sea un ejemplo de ello. Quizá sirva para poner las tecnologías asociadas a la inteligencia artificial, y su impacto, en el radar educativo.
ChatGPT es un chatbot, es decir, una aplicación informática capaz de mantener una conversación por escrito y en lenguaje natural con los seres humanos o redactar textos a petición de los usuarios. En las redes sociales y en medios de comunicación hemos visto multitud de ejemplos de interacciones humano-ChatGPT que nos han dejado pasmados. Se le podía preguntar sobre cualquier cosa y sus respuestas eran textos gramaticalmente correctos (en el idioma elegido por el humano), bien construidos, fluidos de estilo y que parecían una respuesta inteligente a la pregunta que se le hacía. ¡Las máquinas pensantes ya están aquí!, se ha llegado a decir. La prensa, por su parte, se ha encargado de magnificar el hecho durante unos cuantos días y de convertirlo en poco menos que en una amenaza global contra el sistema educativo: si los estudiantes pueden usar una aplicación como ChatGPT para redactar sus trabajos todo se va al garete. Pánico moral… ¿como con los primeros ferrocarriles?
Algunas instituciones educativas, sobreactuando un poco, han prohibido su uso a los estudiantes… en sus campus. Algunos docentes, un tanto desconcertados, han pedido consejo a las autoridades académicas sobre cómo replantear las tareas que realizan sus estudiantes para que no les ‘cuelen’ trabajos escritos por una IA. Las universidades han difundido online recomendaciones para los profesores. En un artículo de la Revista Española de Educación Médica se describe un experimento en el que se le pasaban a ChatGPT las preguntas del examen MIR 2022… ¡y aprobaba! Aunque un poco por debajo de la media, eso sí.
Aprendizaje automático y profundo
Un problema con la IA es que poca gente conoce los entresijos de su funcionamiento y tendemos a creer por su nombre que es similiar a la inteligencia de los seres humanos, aunque esté lejos de ser cierto. No existe una definición canónica de la IA. Hay quienes defienden que basta con que la máquina “muestre un comportamiento inteligente” para considerarla como tal, mientras algunos de sus fundadores afirman que su misión no es simular la inteligencia humana, sino solucionar eficientemente los problemas para los que ha sido programada. Quizá se exageró un poco llamándola ‘inteligencia’ y la definición razonable, siguiendo al JISC (Comité Conjunto de Sistemas de Información del Reino Unido), sería más bien un conjunto de “teorías y técnicas desarrolladas para permitir que los sistemas informáticos realicen tareas que normalmente requieren inteligencia humana o biológica”.
Sus campos actuales de aplicación son muy numerosos y, en ocasiones, desconocidos para los ciudadanos. Aunque los algoritmos con los que toman sus decisiones todavía son más oscuros. Y la oscuridad es incompatible con la democracia.
Dos conceptos suelen aparecer asociados a la IA: aprendizaje automático (‘machine learning’) y aprendizaje profundo (‘deep learning’). No es lugar para explicaciones detalladas (pueden encontrarse en Internet excelentes introducciones), pero necesitamos hacernos una idea de cómo se logra la inteligencia de las inteligencias artificiales. Así, el aprendizaje automático designa un conjunto específico de técnicas de base estadística cuyo objetivo es identificar patrones en conjuntos amplios de datos y luego realizar acciones basadas en dichos patrones. Habitualmente se utiliza un método estadístico como las redes neuronales, los árboles de decisión o la regresión logística. La calidad de las respuestas de la IA depende de la cantidad y calidad de los datos y de los procedimientos de entrenamiento. El aprendizaje profundo es una clase de aprendizaje automático basado en redes neuronales (otro nombre cuidadosamente escogido) y que necesita grandes conjuntos de datos y una notable potencia informática. Así que la mayoría de los sistemas avanzados de IA, como ChatGPT, utilizan el aprendizaje profundo…, con los resultados que conocemos.
Hay dos grandes tipos de preguntas ‘educativas’ sobre la IA: las primeras podríamos englobarlas bajo la rúbrica ‘educar con la ayuda de la IA’. La segunda, ‘educar para la era de la IA’.
¿Qué se ha investigado hasta la fecha sobre educar con la ayuda de la IA’? En una reciente revisión sistemática, se han identificaron cuatro grandes categorías con varios temas en cada una: a) IA en el aprendizaje, como en la asignación de tareas a los estudiantes en base a su competencia actual, en la provisión de conversaciones ‘educativas’ entre humanos y máquinas, en el análisis del trabajo de los estudiantes para ofrecerles retroalimentación sobre desempeño y en aumentar la adaptabilidad y la interactividad de los entornos digitales en los que tiene lugar parte del aprendizaje; b) IA en la enseñanza, como en los sistemas de tutoría inteligente, que recomiendan contenidos didácticos y tareas personalizadas a los estudiantes, combinadas con las enseñanza asistida por ordenador, las tecnologías de IA se han aplicado para ayudar a los profesores a gestionar su enseñanza en el aula y, finalmente, para apoyar el desarrollo profesional de los docentes; c) IA en la evaluación, actualmente existen sistemas de IA que proporcionan una calificación automática a los trabajos de los estudiantes y otros predicen el rendimiento futuro en base a datos, permitiendo anticipar medidas correctoras si fuera necesario; finalmente, d) IA en la administración, se utilizan en la mejora del rendimiento de las plataformas de gestión, en la oferta servicios personalizados y en el apoyo a la toma de decisiones educativas basadas en evidencias.
Y sobre “educar para la era de la IA”, ¿qué se ha reflexionado? Es evidente que se trata de un tema bastante más complejo y poliédrico que el anterior. Y tenemos más preguntas que respuestas. Es posible que la IA vaya calando, como lluvia fina, en cada vez más ámbitos de la vida de las personas. Empresas y gobiernos la usarán en la toma de decisiones y en la prestación de servicios. Trasladado al currículum explícito, las preguntas son de este tipo: ¿qué deben saber y saber hacer sobre IA los estudiantes en cada nivel educativo? ¿Qué deben conocer sobre sus derechos como ciudadanos, que todavía están regulándose, y qué tipo de amenazas a dichos derechos experimentarán? ¿Qué garantías legales habrá sobre las decisiones soportadas por IA de la administración sobre aspectos relevantes de nuestras vidas? ¿Qué necesitaran los jóvenes para comprender las posibilidades y limitaciones de la IA como profesionales de distintos ámbitos? Por ejemplo, ¿qué debe saber un/a futuro médico sobre la inteligencia artificial para ejercer su profesión? ¿O un graduado en una familia específica de la Formación Profesional? ¿Y un abogado o abogada?
Muchas incógnitas, algunas certezas
Ante lo desconocido solo podemos echar mano de aquellas cosas de las que estamos completamente seguros y con las que estamos profundamente comprometidos: los Derechos Humanos, los Objetivos de Desarrollo Sostenible, una democracia participativa de calidad, una educación obligatoria, pública y orientada al desarrollo integral de las personas y no a su ‘empleabilidad’ y valor de mercado, un sistema político que no privilegie a los más fuertes ignorando a quienes no resultan ‘rentables’ o productivos, un fuerte control de las grandes empresas tecnológicas, etc. Y necesitamos reflexión.
Si, como dijo Clemenceau, “la guerra es un asunto demasiado serio para dejarla en manos de los militares”; hoy, la IA es un tema demasiado importante para dejarlo en manos de las empresas informáticas. Los gobiernos deberían saberlo. El problema es si tienen los recursos y la convicción necesaria. Como educadores es necesario que conozcamos qué puede hacer, cómo lo hace y qué no puede hacer la IA. En 2011, Marc Andreessen escribió una frase que cada vez resulta más cierta: “El software se está comiendo el mundo”. Si el impacto político de los algoritmos que gobiernan las redes sociales no había sido ni comprendido, ni anticipado o previsto, esta vez tenemos que estar prevenidos. De hecho, existe una creciente conciencia sobre los problemas éticos, legales, sociales, políticos, económicos, educativos, etc., que puede causar una IA (des)gobernada por la maximización de beneficios empresariales. Y en educación tenemos nuestros propios problemas. Puede que hayamos perdido el miedo a que la IA sustituya a los profesores, pero a largo plazo seguramente redefinirá sus roles, el entorno docente/discente y las actividades de los estudiantes. ¿Puede imaginar el impacto, positivo y negativo, de un libro de texto ‘inteligente’? Algún autor de ciencia ficción sí que ha podido. Negarnos a su uso en las aulas no servirá de gran cosa, sólo a hurtar el derecho de la juventud a desarrollar las competencias necesarias, entre ellas una visión crítica, para vivir en un mundo tecnológicamente mucho más complejo que el que nosotros, sus profesores, conocimos. Es más, en educación, la nostalgia de un mundo antiguo, idealizado y falso, sólo nos dejará aún más fuera de juego.
3