Publicado: 16 enero 2026 a las 4:00 pm
Categorías: Artículos
[responsivevoice_button buttontext="Escuchar la noticia" voice="Spanish
Latin American Female"]
Por José Luis Fernández

¿Aliada o amenaza? La IA irrumpe en el aula universitaria. Imagen elaborada con ChatGPT.
En un mundo donde la inteligencia artificial (IA) generativa se ha convertido en una herramienta cotidiana, capaz de redactar ensayos, generar imágenes o incluso simular conversaciones complejas, la educación superior se encuentra en una encrucijada. ¿Cómo integrar esta tecnología revolucionaria sin comprometer el pensamiento crítico de los estudiantes? ¿Puede la IA ser una aliada o una amenaza para el aprendizaje auténtico?
Estos interrogantes resuenan con fuerza en el ámbito académico, especialmente tras la explosiva popularidad de herramientas como ChatGPT. Un estudio reciente, publicado en la Revista Iberoamericana de Educación a Distancia (RIED), explora precisamente estos dilemas. Liderado por Teresa Romeu Fontanillas, Marc Romero Carbonell, Montse Guitert Catasús y Pablo Baztán Quemada, todos investigadores de la Universitat Oberta de Catalunya (UOC), el trabajo titulado «Desafíos de la inteligencia artificial generativa en educación superior: fomentando su uso crítico en el estudiantado» analiza cómo más de 900 estudiantes universitarios perciben y utilizan la IA generativa (IAG).
Basado en datos cuantitativos y cualitativos recogidos durante el curso 2023-2024, el informe revela no solo un aumento en el conocimiento gracias a recursos educativos específicos, sino también preocupaciones éticas profundas que podrían redefinir el futuro de la enseñanza.
La irrupción de la IAG ha transformado radicalmente la forma en que generamos contenido. Definida como una tecnología que emplea modelos de aprendizaje profundo para producir textos, imágenes o audios similares a los humanos a partir de indicaciones complejas, la IAG promete eficiencia y accesibilidad. Cualquiera con conexión a internet puede interactuar con ella, desde redactar informes hasta crear arte visual. Sin embargo, los autores del estudio advierten de sus sombras: riesgos de privacidad, sesgos en la información, proliferación de deepfakes y un impacto ambiental devastador debido al consumo masivo de energía en su entrenamiento.
En el contexto educativo, estas herramientas plantean un desafío mayor. La UNESCO, en documentos como el Consenso de Beijing sobre IA y Educación (2019) o la Recomendación sobre la Ética de la IA (2021), urge a un enfoque humanizado, enfatizando la necesidad de políticas que fomenten un uso responsable. En Europa, el Reglamento (UE) 2024/0138 sobre IA busca regular estos aspectos, pero en las aulas, la realidad es más caótica.
La Conferencia de Rectores de las Universidades Españolas (CRUE) reconoce el potencial de la IAG para democratizar el acceso al conocimiento, pero alerta sobre su capacidad para eludir competencias esenciales como la indagación y el discernimiento entre lo real y lo falso.
El estudio se centra en la asignatura transversal «Competencias TIC» de la UOC, una universidad íntegramente online que imparte esta materia en todos sus grados desde la adaptación al Espacio Europeo de Educación Superior en 2009. Aquí, los estudiantes desarrollan proyectos digitales en equipo mediante el modelo ABPCL (Aprendizaje Basado en Proyectos Colaborativos en Línea).
En el segundo semestre del curso 2023-2024, se introdujo un recurso didáctico específico sobre IAG, complementado con un debate evaluable sobre sus implicaciones éticas. Este recurso, diseñado por el profesorado de la asignatura, se divide en secciones clave: qué es la IAG y sus aportes, herramientas disponibles, cómo interactuar con ella, criterios éticos y usos extendidos en el aprendizaje.
El apartado ético destaca por detallar desafíos como la desinformación, la privacidad de datos y la necesidad de citar el uso de IA en trabajos académicos, evitando la dependencia total de estas herramientas. Para fomentar la reflexión, se presentó un caso ficticio: un equipo de estudiantes donde uno de los miembros usa IAG para completar su tarea, generando dudas sobre plagio y autenticidad. Este escenario impulsó debates en foros virtuales, donde los alumnos propusieron soluciones para un uso normativo y enriquecedor.
La metodología del estudio es mixta, combinando datos cuantitativos y cualitativos, tal como recomiendan expertos como John W. Creswell. Se aplicó un cuestionario online a estudiantes de la asignatura, comparando dos grupos: uno del primer semestre (sin recurso ni debate, con 686 respuestas de 3.574 matriculados) y otro del segundo (con intervención, 243 respuestas de 2.532). La muestra es representativa, con un 21% y 11% de participación respectivamente, y un margen de error del 3,32% y 5,93%.
El cuestionario incluía preguntas cerradas de opción múltiple, escalas Likert y abiertas sobre percepción de conocimiento, variables influyentes y principios éticos. Los datos cuantitativos se analizaron con JASP, mientras que los cualitativos usaron QCAmap para codificar respuestas hasta saturación, emergiendo siete categorías éticas tras triangulación con literatura. La población abarca diversas disciplinas: Derecho y Ciencia Política, Economía y Empresa, Artes y Humanidades, Psicología y Ciencias de la Educación, e Informática y Telecomunicaciones.
Los resultados cuantitativos muestran un claro impacto del recurso educativo. En la escala Likert de conocimiento autopercibido sobre IAG (de 1: «No he oído hablar» a 5: «Conozco a fondo»), el grupo sin recurso promedia 3,12 (conocimiento básico), frente a 3,57 en el grupo con intervención. La diferencia es significativa (t = -10,922, p < 0,001). Destaca que el 26,53% del primer grupo ignora o malentiende la IAG, bajando al 1,24% en el segundo. Además, el 76,55% del grupo intervenido declara un conocimiento avanzado (niveles 4 y 5), versus 40,38% en el otro.
Las herramientas más conocidas son ChatGPT (99,2% en el grupo sí, casi 90% en no), seguida de Canva (80,41% vs. 63,92%), Perplexity y DALL-E. Esto corrobora estudios como el de Strzelecki (2023), que posiciona a ChatGPT como la más usada en academia.
Las variables influyentes revelan matices. La formación previa (de secundaria a doctorado) no impacta significativamente, salvo entre secundaria y máster. La edad tampoco: menores de 20 puntúan 3,09, mayores de 50 un 3,47, sin diferencias estadísticas. Sin embargo, la disciplina académica sí importa. Informática y Telecomunicaciones lidera (media 3,64), seguida de Humanidades (3,52), Derecho (3,24), Empresa (3,3) y Psicología/Educación (3,05). Pruebas ANOVA confirman diferencias, como entre Psicología e Informática (p < 0,001). Esto alinea con Wang y Li (2024), que hallan variaciones en la aceptación de IAG por campo, y Stöhr et al. (2024), que vinculan familiaridad a la disciplina.
En cuanto a preocupaciones éticas, los estudiantes seleccionaron aspectos críticos como el desconocimiento de consecuencias (61,62% sin recurso, 61,48% con), desinformación/deepfakes (59,60% vs. 58,40%) y contenido engañoso (55,27% vs. 53,69%). Aumenta la alerta por privacidad de datos (40,69% a 49,59%) y sesgos (49,06% a 58,40%) post-intervención.
Curiosamente, la legalidad preocupa poco (10,39% vs. 8,20%), pese a normativas europeas. El análisis cruzado con conocimiento muestra que la formación mitiga temores en niveles bajos, pero los acentúa en altos, fomentando una conciencia informada.
La intervención eleva el conocimiento, especialmente en disciplinas reticentes como Psicología, y fomenta principios éticos como honestidad y crítica. No obstante, persisten brechas en legalidad y privacidad. Los autores proponen rediseños: actualizar casos con aspectos legales, analizar términos de uso de herramientas y estructurar búsquedas con IAG para reflexión práctica.
Este estudio no solo valida recursos pedagógicos para una IAG responsable, sino que urge a universidades a integrar ética en currículos. En un panorama donde la IAG podría automatizar tareas, pero erosionar habilidades humanas, fomentar su uso crítico es esencial. Como advierten los investigadores, la educación superior debe evolucionar: de temer la IA a dominarla con discernimiento.
Fuente: https://exitoeducativo.net/y-si-la-ia-generativa-fuera-menos-lesiva-para-la-educacion-de-lo-que-se-cree/
Deja un comentario