Reflexiones sobre el uso de ChatGPT en la educación
24 abril, 2024Por: Adi Estela Lazos Ruíz*
“La inteligencia artificial (IA) se refiere a la capacidad de las máquinas para realizar tareas que normalmente requerirían inteligencia humana… mediante la programación de algoritmos y el procesamiento de datos.” (OpenAI, 2024)[1]. Algunos ejemplos de IA son los asistentes virtuales; el reconocimiento facial en controles de acceso; las recomendaciones automáticas de productos a partir de nuestro historial de búsquedas o los vehículos de conducción autónoma. El campo de la educación no está exento de los avances en IA, tal es el caso de la posibilidad de crear diseños con Canva; los asistentes para corrección de gramática con Grammarly; la organización de documentos de investigación con Research Rabbit, entre muchos otros (EduToolsTec, 2024). La Inteligencia Artificial Generativa (IAG) utiliza modelos de aprendizaje automático para producir contenidos originales, entre estas herramientas están los modelos de lenguaje de gran tamaño como ChatGPT, Copilot, Gemini o Mistral AI. En este trabajo solamente tomaré como ejemplo el ChatGPT por ser el más famoso pero las reflexiones pueden aplicar a otras IAG.
ChatGPT – Chat Generative Pre-trained Transformer
A finales de 2022 la empresa OpenAI lanzó la aplicación ChatGPT para uso libre. Desde entonces ha tenido millones de consultas. ChatGPT es un modelo de lenguaje que predice secuencias de palabras de acuerdo a lo aprendido con millones de parámetros con que se ha entrenado (García-Peñalvo, 2023). ChatGPT no piensa, pero está diseñado para responder en forma de una conversación generando frases coherentes muy parecidas a una respuesta humana.
ChatGPT se nutre de diversas fuentes de información recopiladas de internet, como foros, noticia, libros, bases de datos (Wikipedia, por ejemplo) o las interacciones de los mismos usuarios con la aplicación (esta es la opción por default y es posible optar por no compartirlo). Aunque esta aplicación tiene la capacidad sin precedentes de localizar información en bases de datos enormes y en un tiempo mucho más rápido que una persona, no todas las fuentes que consulta son fidedignas. La IAG todavía no sabe distinguir totalmente cuáles son fuentes confiables y cuáles no. Tampoco se tiene acceso a saber con precisión cuál mecanismo usó para llegar a la respuesta que arroja, ni tener certeza sobre cuáles fuentes consultó.
Hasta la fecha[2], la última actualización de ChatGPT fue en enero de 2022. De esta manera si le damos la instrucción de hacer un resumen sobre la Revolución Mexicana, puede emitir una respuesta. Sin embargo, si preguntamos quién ganó el Campeonato Mundial de Patinaje Artístico sobre Hielo de 2024, no tiene cómo responder por la ausencia de información de los años 2023 y 2024.
La mayor parte de los entrenamientos que ha recibido este modelo de lenguaje se han dado en inglés y aunque se va avanzando en otros idiomas, hay algunos donde su desempeño es pobre (Savage, 2024). Por ejemplo, se pidió a ChatGPT escribir un poema en lengua maya junto con su traducción. Al ser revisado por nuestro maestro de maya y mayahablante, el Prof. Ismael May May[3] (comunicación personal, 1 de febrero de 2024), notó que la respuesta estaba distorsionada, la escritura y la traducción no eran del todo correctas y daba la impresión de que se mezclaban palabras de más de un idioma de la familia lingüística maya.
Uso de ChatGPT y reflexiones
Algunas ventajas que ofrece ChatGPT son la velocidad de respuesta, la síntesis de grandes cantidades de información, la generación de textos y la interactividad. Entre las desventajas están el acceso desigual a esta tecnología, la falta de transparencia sobre las fuentes utilizadas y la seguridad de los datos (Gallent et al., 2023).
Sabzalieva y Valentini (2023) discuten cuándo es seguro usar ChatGPT (Figura 1).
El mensaje principal de dicho diagrama es que se requiere la experiencia y competencia para verificar y analizar críticamente el resultado arrojado por ChatGPT para usarlo de manera segura. Esto es especialmente importante en el ámbito universitario donde deben prevalecer los principios fundamentales de la integridad académica: honestidad, confianza, justicia, respeto, responsabilidad y valor; incluidos en los códigos de ética de las universidades (e.g. Código de Ética de la UNAM (UNAM, 2015)).
Figura 1. ¿Cuándo es seguro usar ChatGPT? Fuente: Diagrama elaborado por Aleksandr Tiulkanov (Sabzalieva y Valentini, 2023).
Hacer un trabajo utilizando ChatGPT de manera parcial o total, sin referenciarlo y además hacerlo pasar como autoría propia, es un acto contra la integridad académica. El plagio o la suplantación de autoría caben en este rubro. Hay grandes esfuerzos en las escuelas por evitar el plagio, como el uso de programas de software especializado (e.g. Ithenticate). Algunos docentes invierten mucho tiempo tratando de descubrir si alguien escribió sus propias ideas o solamente copió y pegó un texto, ¡incluso ya en el nivel universitario!. También, son conocidos los escándalos de empresas y profesionales consolidados cayendo en estas prácticas en detrimento de su carrera (McKie, 2024). Así, es necesario abordar este problema reforzando el principio de honestidad entre toda la comunidad académica.
Roberto Navarro (2023) hace unas reflexiones interesantes:
“Si los estudiantes desarrollan una relación de dependencia con la IAG… están renunciando… a su rol de protagonistas de su propio aprendizaje.
El mal uso (y abuso) de las tecnologías de IAG puede llevar a que los estudiantes no logren el desarrollo de las competencias o de los aprendizajes esperados. En un escenario —espero— distópico en esta materia, los estudiantes pueden transformarse en meros operadores de máquinas generadoras de información, pero sin que logren una comprensión ni un análisis crítico, incapaces de construir su propio conocimiento y de generar otros nuevos.
La sobreutilización de herramientas de IA…, la no contrastación con otras fuentes y la ausencia de análisis crítico pueden llevar a que el aprendizaje logrado se encuentre completamente distorsionado por los sesgos y la discriminación presente en la IA.“
En el ámbito global, hay posturas contradictorias con respecto al uso de ChatGPT en las aulas. Por una parte, están aquellas en las que restringen su uso y otras donde enseñan al estudiantado a escribir mejores prompts, que son las frases para elaborar preguntas a ChatGPT y que cuya formulación determina la calidad de las respuestas. No hay una respuesta definitiva ante este dilema.
Parece que las aplicaciones de IA en la educación han llegado para quedarse y además evolucionar a un ritmo vertiginoso. Esto exige la actualización de estudiantes y docentes, lo cual no suele ser fácil especialmente porque hay una brecha generacional que abarca formaciones académicas que van desde la consulta de libros en bibliotecas hasta los nativos digitales. La empatía desde ambos lados de la brecha es necesaria y nos invita a repensar las estrategias educativas.
Por último, queda el llamado a aprovechar conscientemente las oportunidades que ofrecen la IA, considerando el análisis crítico y la ética. Es útil y divertido pensar en aquello donde la IA aún no puede llegar, como la experiencia humana, el sentido común, el pensamiento crítico, las emociones. Explorar estos espacios y usarlos en los procesos de enseñanza-aprendizaje puede ayudar a que las y los estudiantes generen sus propios datos y materiales, y descubran, articulen y expresen su propia voz. En suma, que la IA nos sirva a nosotros y que no nos quedemos desamparados si se va la luz.
Agradecimientos
A la Dra. Diana Aguilera por sus comentarios y al Prof. Ismael May May por la asesoría.
[1] Respuesta de ChatGPT al prompt “Definición concisa de Inteligencia Artificial,” OpenAI, Abril 4, 2024.
[2] Principios de abril de 2024
[3] Ismael May May es profesor de maya de la ENES Mérida y parte del equipo del Primer Corpus Lingüístico de la Lengua Maya Yucateca “T’aantsil”
Bibliografía
Centro Internacional de Integridad Académica (s.f.). Fundamental Values of Academic Integrity. Consultado el 4 de abril de 2024. https://academicintegrity.org/resources/fundamental-values
EduTools Tec. (2024). Tecnologías de IA seleccionadas para el IFE 2024. Consultado el 15 de febrero de 2024. https://edutools.tec.mx/es
Gallent, C., Zapata, A., Ortego, J. L. (2023). The impact of Generative Artificial Intelligence in higher education: a focus on ethics and academic integrity. Relieve 29(2), art. M5. http://doi.org/10.30827/relieve.v29i2.29134
García-Peñalvo, F. (2023). La percepción de la Inteligencia Artificial en contextos educativos tras el lanzamiento de ChatGPT: Disrupción o Pánico. Education in the Knowledge Society 24. https://doi.org/10.14201/eks.31279
McKie, R. (2024, 3 de febrero). ‘The situation has become appalling’: fake scientific papers push research credibility to crisis point. The Guardian. https://www.theguardian.com/science/2024/feb/03/the-situation-has-become-appalling-fake-scientific-papers-push-research-credibility-to-crisis-point
Navarro, R. (2023). Descripción de los riesgos y desafíos para la integridad académica de aplicaciones generativas de inteligencia artificial. Derecho PUCP. Revista de la Facultad de Derecho 91: 231-270.
OpenAI. (2024). Chat GPT (versión abril 2024) [Modelo de lenguaje de gran tamaño]. https://chat.openai.com/
Sabzalieva, E., Valentini, A. (2023). ChatGPT e inteligencia artificial en la educación superior: guía de inicio rápido. Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura y el Instituto Internacional de la UNESCO para la Educación Superior en América Latina y el Caribe. Disponible en acceso abierto bajo la Licencia Attribution-NonCommercial-ShareAlike (CC-BY-NC-SA 3.0 IGO). https://unesdoc.unesco.org/ark:/48223/pf0000385146_spa
Savage, N. (2024). Can ChatGPT learn Chinese or Swahili?: Considering how large language models might act differently if trained in different languages. Communications of the Association for Computer Machinery, Online First. https://doi.org/10.1145/3640351
Universidad Nacional Autónoma de México (UNAM). (2015). Código de Ética de la UNAM. Gaceta UNAM No. 4709. https://www.unamenlinea.unam.mx/recurso/82885-codigo-de-etica-de-la-unam
*Adi E. Lazos Ruiz es Investigadora por México CONAHCYT, adscrita al Departamento de Humanidades y Sistemas Sociales de la ENES Mérida, UNAM. Correo electrónico: adi.lazos@enesmerida.unam.mx
Muchas gracias, Adi, por tus excelentes reflexiones.
Creo que con respecto al diagrama de Sabzalieva y Valentini, es importante enfatizar que programas como ChatGPT a veces “alucinan”, es decir, producen información que es de plano falsa. Por ejemplo, si se le piden referencias bibliográficas a la versión en español de ChatGPT 3.5, el programa responde con una bibliografía no solo imprecisa, sino inventada de títulos no existentes. Los programas están mejorando continuamente (en inglés, ya no me salen los títulos inventados). Pero es importante que los usuarios estén conscientes de que no hay garantía de que las respuestas de ChatGPT a sus preguntas sean verdaderas.
¡Muchas gracias por este comentario importantísimo, Martin!