¿Qué o quién puede hacer la escuela más inteligente?
·
Los pedagogos se
preguntan si deberían educar ‘con’ la ayuda de la inteligencia artificial o
‘para’ la era de la IA. Sus posibilidades como herramienta en el aprendizaje y
las evaluaciones son múltiples, pero también sus riesgos
¿Qué está pasando en
educación con ChatGPT y la inteligencia artificial? La ley de
Amara, elaborada por el investigador estadounidense Roy Carles Amara, afirma
que los seres humanos, a lo largo de la historia, hemos tendido a sobrestimar
el impacto de la tecnología a corto plazo y a subestimarlo a largo plazo. Quizá
el estado de opinión creado en los últimos meses sobre un sistema ‘inteligente’
de charla online, ChatGPT, sea un ejemplo de ello. Quizá sirva para poner las
tecnologías asociadas a la inteligencia artificial, y su impacto, en el radar
educativo.
ChatGPT es un chatbot,
es decir, una aplicación informática capaz de mantener una conversación por
escrito y en lenguaje natural con los seres humanos o redactar textos a
petición de los usuarios. En las redes sociales y en medios de comunicación
hemos visto multitud de ejemplos de interacciones humano-ChatGPT que nos han
dejado pasmados. Se le podía preguntar sobre cualquier cosa y sus respuestas
eran textos gramaticalmente correctos (en el idioma elegido por el humano),
bien construidos, fluidos de estilo y que parecían una respuesta inteligente a
la pregunta que se le hacía. ¡Las máquinas pensantes ya están aquí!, se ha
llegado a decir. La prensa, por su parte, se ha encargado de magnificar el
hecho durante unos cuantos días y de convertirlo en poco menos que en una
amenaza global contra el sistema educativo: si los estudiantes pueden usar una
aplicación como ChatGPT para redactar sus trabajos todo se va al garete. Pánico
moral… ¿como con los primeros ferrocarriles?
Algunas instituciones
educativas, sobreactuando un poco, han prohibido su uso a los estudiantes… en
sus campus. Algunos docentes, un tanto desconcertados, han pedido consejo a las
autoridades académicas sobre cómo replantear las tareas que realizan sus
estudiantes para que no les ‘cuelen’ trabajos escritos por una IA. Las
universidades han difundido online recomendaciones para los profesores. En un
artículo de la Revista Española de Educación Médica se describe un experimento
en el que se le pasaban a ChatGPT las preguntas del examen MIR 2022… ¡y
aprobaba! Aunque un poco por debajo de la media, eso sí.
Aprendizaje automático y profundo
Un problema con la IA es
que poca gente conoce los entresijos de su funcionamiento y tendemos a creer
por su nombre que es similiar a la inteligencia de los seres humanos, aunque
esté lejos de ser cierto. No existe una definición canónica de la IA. Hay quienes
defienden que basta con que la máquina “muestre un comportamiento inteligente”
para considerarla como tal, mientras algunos de sus fundadores afirman que su
misión no es simular la inteligencia humana, sino solucionar eficientemente los
problemas para los que ha sido programada. Quizá se exageró un poco llamándola
‘inteligencia’ y la definición razonable, siguiendo al JISC (Comité Conjunto de
Sistemas de Información del Reino Unido), sería más bien un conjunto de
“teorías y técnicas desarrolladas para permitir que los sistemas informáticos
realicen tareas que normalmente requieren inteligencia humana o
biológica”.
Sus campos actuales de
aplicación son muy numerosos y, en ocasiones, desconocidos para los ciudadanos.
Aunque los algoritmos con los que toman sus decisiones todavía son más oscuros.
Y la oscuridad es incompatible con la democracia.
Dos conceptos suelen
aparecer asociados a la IA: aprendizaje automático (‘machine learning’) y
aprendizaje profundo (‘deep learning’). No es lugar para explicaciones
detalladas (pueden encontrarse en Internet excelentes introducciones), pero
necesitamos hacernos una idea de cómo se logra la inteligencia de las
inteligencias artificiales. Así, el aprendizaje automático designa un conjunto
específico de técnicas de base estadística cuyo objetivo es identificar
patrones en conjuntos amplios de datos y luego realizar acciones basadas en
dichos patrones. Habitualmente se utiliza un método estadístico como las redes
neuronales, los árboles de decisión o la regresión logística. La calidad de las
respuestas de la IA depende de la cantidad y calidad de los datos y de los
procedimientos de entrenamiento. El aprendizaje profundo es una clase de
aprendizaje automático basado en redes neuronales (otro nombre cuidadosamente
escogido) y que necesita grandes conjuntos de datos y una notable potencia
informática. Así que la mayoría de los sistemas avanzados de IA, como ChatGPT,
utilizan el aprendizaje profundo…, con los resultados que conocemos.
Hay dos grandes tipos de
preguntas ‘educativas’ sobre la IA: las primeras podríamos englobarlas bajo la
rúbrica ‘educar con la ayuda de la IA’. La segunda, ‘educar para la era de la
IA’.
¿Qué se ha investigado
hasta la fecha sobre educar con la ayuda de la IA’? En una reciente revisión
sistemática, se han identificaron cuatro grandes categorías con varios temas en
cada una: a) IA en el aprendizaje, como en la asignación de tareas a los
estudiantes en base a su competencia actual, en la provisión de conversaciones
‘educativas’ entre humanos y máquinas, en el análisis del trabajo de los
estudiantes para ofrecerles retroalimentación sobre desempeño y en aumentar la
adaptabilidad y la interactividad de los entornos digitales en los que tiene
lugar parte del aprendizaje; b) IA en la enseñanza, como en los sistemas de
tutoría inteligente, que recomiendan contenidos didácticos y tareas
personalizadas a los estudiantes, combinadas con las enseñanza asistida por
ordenador, las tecnologías de IA se han aplicado para ayudar a los profesores a
gestionar su enseñanza en el aula y, finalmente, para apoyar el desarrollo
profesional de los docentes; c) IA en la evaluación, actualmente existen
sistemas de IA que proporcionan una calificación automática a los trabajos de
los estudiantes y otros predicen el rendimiento futuro en base a datos,
permitiendo anticipar medidas correctoras si fuera necesario; finalmente, d) IA
en la administración, se utilizan en la mejora del rendimiento de las
plataformas de gestión, en la oferta servicios personalizados y en el
apoyo a la toma de decisiones educativas basadas en evidencias.
Y sobre “educar para la
era de la IA”, ¿qué se ha reflexionado? Es evidente que se trata de un tema
bastante más complejo y poliédrico que el anterior. Y tenemos más preguntas que
respuestas. Es posible que la IA vaya calando, como lluvia fina, en cada vez
más ámbitos de la vida de las personas. Empresas y gobiernos la usarán en la
toma de decisiones y en la prestación de servicios. Trasladado al currículum
explícito, las preguntas son de este tipo: ¿qué deben saber y saber hacer sobre
IA los estudiantes en cada nivel educativo? ¿Qué deben conocer sobre sus
derechos como ciudadanos, que todavía están regulándose, y qué tipo de amenazas
a dichos derechos experimentarán? ¿Qué garantías legales habrá sobre las
decisiones soportadas por IA de la administración sobre aspectos relevantes de
nuestras vidas? ¿Qué necesitaran los jóvenes para comprender las posibilidades
y limitaciones de la IA como profesionales de distintos ámbitos? Por ejemplo,
¿qué debe saber un/a futuro médico sobre la inteligencia artificial para
ejercer su profesión? ¿O un graduado en una familia específica de la Formación
Profesional? ¿Y un abogado o abogada?
Muchas incógnitas, algunas certezas
Ante lo desconocido solo
podemos echar mano de aquellas cosas de las que estamos completamente seguros y
con las que estamos profundamente comprometidos: los Derechos Humanos, los
Objetivos de Desarrollo Sostenible, una democracia participativa de calidad,
una educación obligatoria, pública y orientada al desarrollo integral de las personas
y no a su ‘empleabilidad’ y valor de mercado, un sistema político que no
privilegie a los más fuertes ignorando a quienes no resultan ‘rentables’ o
productivos, un fuerte control de las grandes empresas tecnológicas, etc. Y
necesitamos reflexión.
Si, como dijo
Clemenceau, “la guerra es un asunto demasiado serio para dejarla en manos de
los militares”; hoy, la IA es un tema demasiado importante para dejarlo en
manos de las empresas informáticas. Los gobiernos deberían saberlo. El problema
es si tienen los recursos y la convicción necesaria. Como educadores es
necesario que conozcamos qué puede hacer, cómo lo hace y qué no puede hacer la
IA. En 2011, Marc Andreessen escribió una frase que cada vez resulta más
cierta: “El software se está comiendo el mundo”. Si el impacto político de los
algoritmos que gobiernan las redes sociales no había sido ni comprendido, ni
anticipado o previsto, esta vez tenemos que estar prevenidos. De hecho, existe
una creciente conciencia sobre los problemas éticos, legales, sociales,
políticos, económicos, educativos, etc., que puede causar una IA (des)gobernada
por la maximización de beneficios empresariales. Y en educación tenemos
nuestros propios problemas. Puede que hayamos perdido el miedo a que la IA
sustituya a los profesores, pero a largo plazo seguramente redefinirá sus
roles, el entorno docente/discente y las actividades de los estudiantes. ¿Puede
imaginar el impacto, positivo y negativo, de un libro de texto ‘inteligente’?
Algún autor de ciencia ficción sí que ha podido. Negarnos a su uso en las aulas
no servirá de gran cosa, sólo a hurtar el derecho de la juventud a desarrollar
las competencias necesarias, entre ellas una visión crítica, para vivir en un
mundo tecnológicamente mucho más complejo que el que nosotros, sus profesores,
conocimos. Es más, en educación, la nostalgia de un mundo antiguo, idealizado y
falso, sólo nos dejará aún más fuera de juego.
Por Jordi Adell
Pedagogo y profesor jubilado de la Universitat Jaume I
Fuente
https://www.eldiario.es/tecnologia/escuela-inteligente_129_10414125.html
No hay comentarios:
Publicar un comentario