En las historias que más le gusta contar a Ryan Lufkin el aprendizaje triunfa frente a la adversidad. Relata que en Filipinas, ante las altas temperaturas durante el verano y en el último gran tifón, las escuelas cerraron y algunos alumnos pudieron seguir estudiando gracias a las instituciones que cuentan con una plataforma en línea. “En la era post covid los estudiantes utilizan sus celulares de una manera que los adultos aún no comprendemos del todo”. Sin duda hay desafíos. Relata la anécdota de una niña de un año y medio a la que le dan una revista impresa e intenta hacer scroll; luego se limpia el dedo en la camisa y se desplaza de nuevo. “Es tan nativa digital que para ella esa cosa está rota porque no le permite ser interactiva”.
Con más de dos décadas en el mundo de la tecnología educativa, Ryan Lufkin es vicepresidente de Estrategia Académica Global en Instructure, la empresa creadora de Canvas LMS (sistema de gestión de aprendizaje por sus siglas en inglés), desde donde promueve el uso de tecnologías emergentes como la inteligencia artificial (IA) y el aprendizaje automatizado para mejorar la experiencia de la enseñanza. A propósito de su visita a Colombia, Generacion habló con él sobre los retos de la IA en la educación, lo que se puede hacer y cómo usarla de forma ética y segura.
¿Cómo avanzar hacia un aprendizaje más personalizado y adaptativo?
“En un mundo ideal cada curso es diseñado para cada estudiante pero esto es difícil a gran escala. La personalización del aprendizaje es una de las grandes oportunidades que vienen con la IA (...). Hay un movimiento llamado Educación Basada en Competencias (EBC), que se enfoca en entender y adaptarse a las habilidades de una persona y luego cerrar las brechas con un aprendizaje más flexible.
Es importante destacar la relación entre profesor y alumno, así como la colaboración entre docentes, allí está la magia del aprendizaje. Con un asistente potenciado por IA se extiende el alcance del profesor, incluso fuera del horario escolar. De ninguna manera la IA reemplazará a los educadores ni la conexión que ellos tienen con sus alumnos. Es maravilloso observar a un profesor enseñar y que se produzca el momento ¡aja! en el estudiante”.
¿Puede darme ejemplos específicos de esa personalización?
“En ambientes multilingües, en Canvas LMS, con solo pulsar un botón se pueden traducir los mensajes de la bandeja de entrada sin tener que ir y venir entre herramientas o sistemas. O si tienes 300 estudiantes y están en una discusión sobre un tema con decenas de comentarios, creamos una herramienta para que el profesor haga clic y vea el resumen para luego reintegrarse a la conversación y entender de qué se está hablando sin tener que leer todos los post de inmediato
También está otra que aprecio mucho: Intelligent Insights (análisis inteligente), una herramienta que les permite a los profesores que no saben cómo escribir reportes de análisis de datos interactuar más sencillo. Esto significa que pueden escribir una pregunta en lenguaje natural, por ejemplo: ¿cuántos estudiantes obtuvieron calificaciones superiores al 70 %?, y el software genera una consulta y devuelve los resultados en forma de tabla o gráfico (según lo que tenga más sentido). También hay un chatbot que narra y explica eficazmente los resultados o la metodología y sugiere análisis adicionales. Esto permite entender cómo está avanzando cada estudiante y tomar medidas correctivas; o impulsar el avance de aquellos que van más rápido”.
Esto es fantástico para analizar grandes volúmenes de información.
“Hablo mucho de la escala de la IA, y de lo que es capaz de hacer, porque los maestros están sobrecargados de trabajo: deben calificar, mantenerse al día, además de las tareas administrativas. Podemos hacer más fácil algunas de estas gestiones y permitir que los profesores se centren en la enseñanza y la creación de esas conexiones sin estos asuntos en el fondo”.
Le escuché decir que los profesores van más atrasados que los estudiantes en esto, ¿cómo lograr que ellos se involucren más?
“Hay muchos datos que demuestran que los estudiantes ya utilizan estas herramientas de IA en el aula y los educadores no están al mismo nivel. Tyton Partners hizo una gran investigación a finales del año pasado que demostró que los maestros se están quedando atrás por lo que necesitamos enfocarnos en la alfabetización de la IA.
Esto tiene cuatro elementos: Uno es entender la IA, lo básico de esta herramienta. Lo otro es cómo escribir los prompts para dar los resultados que necesitas, aún si son textos e imágenes. Cada uno de los grandes modelos lingüísticos es bueno para tareas distintas. El tercero es cómo evaluamos las herramientas para saber para qué son buenas y poder utilizarlas adecuadamente. Y el cuarto, ¿cómo nos aseguramos de que la aplicamos éticamente?
Esta es una de las conversaciones que tengo con mi hijo de 13 años cuando me dice: no entiendo por qué no puedo usar Chat GPT, pero sí Grammarly, ¿es qué son diferentes?. Realmente no lo sabe. Es importante educarlos para saber cuándo es apropiado emplearlos.
Si estás escribiendo un trabajo no pasa nada si los utilizas para hacer una lluvia de ideas y plasmar en papel tus pensamientos básicos. Está bien que te ayuden a hacer un esquema o que lean tu trabajo y te hagan recomendaciones sobre la edición y cosas por el estilo. Por supuesto no está bien entregar un final escrito por la IA. Por eso es preciso formar a los profesores, enseñarles esas mismas tareas para que puedan transmitirlas porque los alumnos quieren saber más y tener directrices”.
¿Cómo preservar el pensamiento crítico en este contexto de la IA?
“No queremos que los estudiantes dependan sólo de esta herramienta. Al estudiar matemáticas sabíamos que no siempre íbamos a tener a mano una calculadora. Y ahora que la llevamos en el bolsillo no ha cambiado la manera en que pensamos de manera crítica. En el caso de la alfabetización en IA es preciso educar a las personas para discernir qué es contenido real y qué no lo es.
Lo que más me asusta del futuro son las Deep fakes (videos o audio generados por IA con las imágenes o voz de una persona real). Durante las elecciones en EE. UU. se han generado robollamadas y están empezando a surgir leyes al respecto para evitar engaños masivos.
De igual forma hay necesidad de elevar el estándar y enseñar cómo se usa; y cómo nos aseguramos de que las escuelas impulsen esas habilidades blandas como la capacidad de interacción, de resolver problemas y la toma de decisiones basada en evidencia. Todo ello se vuelve más importante en este contexto.
También es preciso enfocarnos en construir los cursos que aprovechen estas herramientas y darle la vuelta a cómo estamos evaluando. Hablé con un profesor en EE. UU. que deja que la IA elabore el trabajo final y luego pide a los estudiantes que se reúnan en grupo para que hagan recomendaciones sobre qué ha fallado y qué falta; o qué es inexacto. Así se fomenta la interacción y el pensamiento crítico de una manera innovadora que no se interrumpe por la IA”.
En el planteamiento que hace su compañía se habla de tres pilares sobre la IA: Intencional, segura y accesible, ¿puede explicar cada uno?
“Por supuesto. Intencional significa que la IA debe resolver verdaderos problemas humanos. O sea, los desafíos que ya existen en la educación. Hay que enfocarnos y ser intencionales con ello porque se suele decir que cuando se tiene un martillo, todo parece un clavo.
La propiedad intelectual y la información personal de los estudiantes son fundamentales, por ello las instituciones deben adquirir herramientas basadas en IA entendiendo asuntos como, por ejemplo, ¿cuáles son los grandes modelos de lenguaje que utiliza?, ¿de qué datos se nutre?, ¿dónde están disponibles?, ¿dónde está alojado? Todo ello construye la transparencia y la confianza.
Lo otro es que las herramientas de IA sean equitativas. Por ejemplo, el Chat GPT u otro de pago puede ser mejor que el gratuito, ¿cómo aprovechar esto para que sea accesible para todos y no les quiten a algunos la posibilidad de utilizarlas y con ello crear una diferencia entre los que tienen y los que no tienen?
Es decir, las dos versiones se entrenan en miles de millones de parámetros, allí no está la diferencia, sino en la precisión, la falla en las alucinaciones y el rango justo de conocimiento de la herramienta.
Además, al principio entendíamos los altos costos de la IA a gran escala; ahora estamos empezando a comprender los costos ambientales porque se consume mucha energía. ¿Cómo compensar esto? Es un debate más amplio”.
¿Cómo es el tema de las alucinaciones en versiones pagas versus las gratuitas?
“Las versiones más avanzadas tienen una instancia menor de alucinaciones y con seguridad menos respuestas incorrectas, pero al final solo intentan darte la respuesta que quieres. Cuando les pides referencias a veces las inventan porque no existen. Todavía no sabemos muchas cosas de estos grandes modelos de lenguaje y cómo entregan resultados.
Las herramientas más avanzadas y pagas, las que están siendo entrenadas en más datos, tienen una menor incidencia porque constantemente están trabajando en ello, creando nuevos bucles para verificar sus propias respuestas, entender qué es lo que quieres y responderte con más eficiencia”.
Hay esperanza, sin duda, ¿cómo romper los sesgos inherentes a la IA?
“Sí, lo ves todo el tiempo. Cuando le pido que me genere una imagen de un ejecutivo de una de las empresas de la lista Fortune 500 da como resultado un hombre blanco de edad porque hay un sesgo; o si pido un grupo de ejecutivos hablando de IA en el sector me trae equipos solo masculinos. Hay varias iniciativas trabajando en ello, por ejemplo, la de la Universidad de UCLA en EE. UU. entrena grandes modelos de lenguaje para identificar los sesgos, pero estas iniciativas muy inteligentes son limitadas a ciertas bases de datos, las de sus cursos.
No debemos perpetuar los prejuicios y enseñar a los estudiantes a ser cautelosos e identificarlos en las respuestas que reciben”.
¿Qué avizora en el futuro para la IA?
“En tres años no hablaremos de IA de la misma manera que lo hacemos hoy. ¿Recuerdas lo que decíamos del HTML5 y de cómo iba a cambiar Internet? Ya no hablamos mucho del código o de lo que hay detrás de los sitios web porque lo damos por sentado. Cuando construyamos esa confianza y más personas conozcan cómo aprovechar esta herramienta, la IA pasará a estar en el fondo e impulsará las interacciones diarias. Pienso en la película Wall-E en la que los humanos simplemente flotan por ahí todo el día sin hacer nada. No creo que lleguemos a ese punto, pero habrá tantas interacciones automatizadas que, por ejemplo, mi computadora sabrá lo que me gusta hacer y cuando esté listo para terminar el día comenzará a cerrar programas. La IA hará nuestra vida más fácil en pequeñas tareas diarias que tendrán un gran impacto”.
Debemos preservar la curiosidad como una especie de fuerza de la naturaleza en un mundo digital de gratificación instantánea.
“Necesitamos preservar la curiosidad. Llevamos toda la información del mundo en el bolsillo y literalmente cualquier cosa que quieras saber se busca en Google. Sin embargo, todavía necesitamos educadores y aprendices. En el primer webinar que Instructure organizó sobre IA apenas se iniciaba en 2003 alguién preguntó: ¿y los bibliotecarios van a desaparecer? Respondí que ya no usamos el sistema de catálogo de tarjetas y todavía los necesitamos. Seguimos demandando esos guías, bibliotecarios y educadores que nos ayuden a etiquetar un viaje, conectar los puntos y movernos de forma muy productiva a través del conocimiento que existe ahí fuera. Eso es algo que la IA no puede reemplazar”.