Un estudio alerta sobre los puntos oscuros en la relación entre la IA y el aprendizaje

3

La inteligencia artificial generativa que llegó con los grandes modelos de lenguaje, al estilo de ChatGPT y Gemini, están entrando en muchísimos aspectos de nuestras vidas. Por eso, con el auge de esta tecnología en los últimos dos años muchos investigadores y docentes se preguntan qué efectos puede tener su uso para el aprendizaje.

Para responder ese interrogante, investigadores de la Universidad de Pensilvania y la Budapest British International School realizaron Generative AI Can Harm Learning, un estudio que revela que el uso de IA generativa mejora el rendimiento de los estudiantes, pero también les dificulta aprender y adquirir nuevas habilidades.

“Nos enfocamos en observar cómo los estudiantes de secundaria aprenden matemáticas. Realizamos un estudio de control en una escuela de Turquía con alrededor de 1000 estudiantes, utilizando una interfaz potenciada por ChatGPT 4. El experimento consistió en cuatro sesiones en las que, después de una breve lección dirigida por el profesor sobre un tema de matemáticas, los estudiantes practicaron de forma autónoma (con o sin IA) y, finalmente, hicieron una prueba sin ningún recurso”, explica a LA NACIÓN, Özge Kabakcı, profesora de matemáticas del Budapest British International School y una de las autoras de esta investigación.

Para poder realizar la investigación los especialistas dividieron a los 1000 estudiantes en tres grupos. Un grupo llamado “ChatGPT Base”, que utilizó ChatGPT-4 libremente durante esta práctica. Otro grupo llamado “ChatGPT Tutor”, donde la herramienta fue configurada para actuar más como un profesor, es decir, que no daba respuestas directas, sino que ofrecía pistas paso a paso, señalaba errores y marcaba posibles conceptos erróneos. Mientras que el tercer grupo era el de control, que utilizó materiales tradicionales como cuadernos y libros de texto. Después de esta sesión de práctica, todos los estudiantes realizaron un examen en papel.

IA y educación: el impacto en los estudiantes

“Durante la práctica asistida por IA, el grupo ChatGPT Base superó al grupo de control en un 48%. Pero cuando los estudiantes fueron evaluados sin la ayuda de la IA, en realidad obtuvieron un 17% menos que aquellos que no tuvieron apoyo de IA desde el principio. Mientras que en la práctica asistida por IA, el grupo GPT Tutor tuvo un desempeño 127% mejor que el grupo control, pero en el examen final obtuvieron puntajes similares”, cuenta Kabakcı.

Los resultados de este reporte sugieren que el “grupo Base” dependía del software para resolver los problemas y no aprendió los conceptos matemáticos subyacentes con la suficiente profundidad como para obtener buenos resultados en el examen. En cambio, el rendimiento del “grupo Tutor” muestra que estos efectos negativos se mitigan cuando la IA se implementa con condiciones y límites guiados por el profesor.

“En nuestras investigaciones veníamos observando, también, la paradoja de la IA, que es que al mismo tiempo que acelera aprendizajes, tiene la capacidad de distorsionar la comprensión”, dice Alejandro Artopoulos, sociólogo y profesor de la UBA y de la Universidad de San Andrés (Udesa).

El impacto de la inteligencia artificial en la educación
El impacto de la inteligencia artificial en la educación

Por su parte Melina Masnatta, doctoranda en tecnología educativa y autora del libro Educar en tiempos sintéticos, resalta que la IA es un reto pedagógico más que tecnológico. Otro punto que destaca es que la IA es una herramienta, no un sustituto de los docentes. “Lo más interesante en la educación es motivar la curiosidad, construir criterios en la toma de decisiones. Es que el aprendizaje ocurre en el plano intelectual, pero es principalmente emocional”, sostiene.

Luego de esta investigación, Kabakcı concluye que, si las personas dependen demasiado de la IA, omitiendo el razonamiento real o la práctica, una vez que desaparezca, inevitablemente el alumno tropezará. “¿Por qué no vimos el mismo efecto en el grupo ChatGPT Tutor? Porque configuramos esta herramienta tecnológica para mantener a los estudiantes activos en el proceso de aprendizaje, y ese es el elemento crucial que evitó cualquier perjuicio”, aclara.

Otro resultado que le llamó la atención a esta profesora fue la percepción de los estudiantes sobre cómo les ayudó la IA. “Aunque los usuarios del ChatGPT Base obtuvieron malos resultados en el examen, pensaron que habían aprendido más que el grupo de control. Mientras tanto, el grupo ChatGPT Tutor, cuyos puntajes fueron similares al grupo de control, también sobreestimaron su desempeño en el examen, creyendo que les fue significativamente mejor. Es decir, los grupos que utilizaron IA asumieron que estaban aprendiendo más de lo que realmente habían aprendido, exponiendo una brecha clara entre la percepción y la realidad”, resume.

Por su parte Hamsa Bastani, otra de las investigadoras y profesora Asociada de la Wharton School, escuela de negocios de la Universidad de Pensilvania, destaca que solicitar al tutor de IA para que le proporcione pistas diseñadas por el profesor en lugar de dar respuestas, pueden mitigar los efectos negativos. “Nuestros hallazgos resaltan la necesidad de una integración cuidadosa de la IA generativa en entornos educativos para garantizar la preservación del aprendizaje humano”, agrega.

Por otro lado, Kabakcı asegura que estudios de neurociencia cognitiva muestran que las vías neuronales involucradas en el cálculo y la resolución de problemas pueden debilitarse si no las usamos regularmente. “Esto está especialmente vinculado al ‘sentido numérico’, que múltiples estudios han demostrado como crucial para un aprendizaje más profundo de las matemáticas. Depender demasiado de las máquinas para hacer el trabajo por nosotros puede ser perjudicial en ese sentido, y algunas conexiones cognitivas podrían no formarse, o podrían desvanecerse gradualmente, si no las ejercitamos activamente”, señala.

En este sentido la profesora del colegio de Budapest aclara que la IA generativa plantea preocupaciones similares. En lugar de pensar por nosotros, debería actuar más como un compañero, quizás dando lugar a generar nuevas ideas. “El problema es que dejemos de pensar si todo se nos presenta en bandeja de plata. Claro, es conveniente obtener resúmenes rápidos, pero si dependemos de esa conveniencia por mucho tiempo podríamos terminar con una mente más pasiva, que no sea tan aguda o comprometida como podría ser”, asegura.

¿Y entonces qué se puede hacer? “Como profesora, mi objetivo es lograr un equilibrio saludable. Simplemente prohibir o restringir la IA no es la solución; en cambio, debemos enseñar a los estudiantes a usarla de manera productiva. Claro que algunas habilidades podrían desaparecer si dependemos demasiado de la IA, pero aprender a integrarla de manera efectiva —saber cuándo y qué herramientas usar— es una habilidad crucial en sí misma”, sugiere Kabakcı.

Además, esta profesora recomienda que los padres puedan dar un fuerte ejemplo al usar la IA de manera productiva en sus propias vidas y carreras. “Pueden animar a sus hijos a pensar críticamente sobre la información que les proporciona, y discutir cuándo y por qué deciden usarla. Este enfoque no solo les ayuda a comprender el valor de esta tecnología, sino que también les enseña a equilibrar el uso de la tecnología con la resolución de problemas de forma independiente”, aconseja.

Por su parte Bastani recomienda garantizar que los estudiantes no tengan acceso irrestricto a la IA y que sigan participando en el aprendizaje.

Para Artopoulos la clave es la alfabetización crítica en inteligencia artificial. “Hoy solo se presta atención en la alfabetización técnica, es decir, cómo hacer para que IA sea eficiente. Pero eso no alcanza, porque para no dañar el aprendizaje es fundamental cruzarlo con el pensamiento crítico; y ese pensamiento crítico no es el mismo que aprendemos leyendo, sino que tenemos que aprender a leer y escribir con modelos de lenguaje, y esto cambia completamente a la educación”, resume Artopoulos.

Asimismo, el sociólogo suma que después de tener pensamiento crítico el siguiente paso es tener capacidad creativa. “Es decir, seguir produciendo textos y otro tipo de bienes culturales originales y humanos con inteligencia artificial sin perder la capacidad humana de hacerlo bueno”, aclara.

Masnatta coincide en que la intervención humana sigue siendo valiosa, importante y necesaria. “La IA no está basada solo en datos, sino también en algoritmos que tienen sesgos; por eso es importante que las personas acompañen al alumno durante su proceso educativo y para eso los docentes son fundamentales. Por eso, la educación evalúa el proceso y no solo el resultado”, aclara. Y agrega algo que considera fundamental: durante el proceso educativo se trabaja mucho en la gestión de la frustración. “No todo es inmediato, hay un tiempo de asimilar, hay un tiempo de procesar y hay un tiempo de generar otras preguntas más metacognitivas”, explica, al tiempo que observa que es fundamental tener en cuenta qué pasa con los datos que surgen de la interacción con el ChatGPT y otras herramientas de IA. “Es muy importante entender quién tiene la gobernanza de esos datos, cómo se diseña tecnología, con qué propósito -puntualiza-. Estudiantes, profesores, la comunidad educativa y los ministerios tiene que estar acompañando y no cerrarse en una solución sesgada y educativa”.