Un estudio experimental revela que la asistencia de inteligencia artificial en la redacción académica reduce el esfuerzo, pero compromete la memoria, la creatividad y la autoría.
“Sentí que el ensayo no era mío”, relató uno de los estudiantes universitarios tras escribir con ayuda de ChatGPT. Esta sensación, lejos de ser anecdótica, resume el hallazgo central de un estudio experimental publicado en junio de 2025 por un equipo liderado por Nataliya Kosmyna del MIT Media Lab: el uso de asistentes de inteligencia artificial (IA) como ChatGPT en la escritura de ensayos puede aliviar la carga cognitiva, pero a costa de una menor integración de conocimientos, menor memoria y un sentido disminuido de autoría.
Según el reporte original, recogido por el MIT Media Lab, la dependencia de la IA genera una “deuda cognitiva” que afecta el aprendizaje profundo y la autonomía intelectual, con implicaciones directas para estudiantes, docentes y responsables de políticas educativas.
Un experimento pionero: diseño y metodología
El estudio, realizado durante cuatro meses en universidades del área de Boston (MIT, Wellesley College, Harvard, Tufts y Northeastern), reclutó a 54 participantes universitarios de entre 18 y 39 años. Los investigadores, en colaboración con expertos de Wellesley College, MassArt y Harvard, dividieron a los estudiantes en tres grupos: uno utilizó exclusivamente ChatGPT (GPT-4o) para escribir ensayos, otro recurrió a buscadores web tradicionales (Google, sin respuestas potenciadas por IA), y el tercero solo podía apoyarse en su propio conocimiento, sin herramientas externas.

Cada participante completó tres sesiones de escritura, eligiendo entre temas extraídos de exámenes SAT. En una cuarta sesión opcional, los roles se invirtieron: quienes habían usado IA debían escribir sin ayuda, y viceversa. Durante las tareas, se registró la actividad cerebral mediante electroencefalografía (EEG), se analizaron los textos con técnicas de procesamiento de lenguaje natural (NLP) y se llevaron a cabo entrevistas post-tarea. La calidad de los ensayos fue evaluada tanto por docentes humanos como por un “juez” de IA especialmente diseñado.
Según detalló el MIT Media Lab, el protocolo incluyó la medición de la carga cognitiva, la conectividad neural y la percepción subjetiva de los participantes sobre la autoría y satisfacción con sus textos. El uso de EEG permitió observar en tiempo real cómo variaba la activación cerebral según el tipo de asistencia utilizada.
Resultados principales: menos esfuerzo, menos aprendizaje
Los hallazgos del estudio, publicados por el MIT Media Lab, revelan diferencias notables entre los grupos. El uso de ChatGPT redujo significativamente la carga cognitiva durante la escritura, lo que se reflejó en una menor activación y conectividad de las redes cerebrales asociadas a la memoria de trabajo, la integración semántica y el control ejecutivo.
En contraste, quienes escribieron sin herramientas externas mostraron una activación cerebral más amplia y robusta, especialmente en las bandas alfa y theta, relacionadas con la creatividad, la memoria y la atención sostenida.
En términos de memoria, el grupo asistido por IA presentó una capacidad notablemente inferior para citar frases de sus propios ensayos minutos después de escribirlos: el 83 % de los participantes de este grupo falló en reproducir correctamente una cita, frente a solo el 11 % en los grupos de buscador y “solo cerebro”. Ningún participante del grupo IA logró citar correctamente en la primera sesión, mientras que los otros grupos alcanzaron casi el 100 % de éxito en las sesiones posteriores.
El sentido de autoría también se vio afectado. Solo la mitad de los usuarios de ChatGPT declaró sentir que el ensayo era completamente suyo, mientras que en el grupo “solo cerebro” la autoría plena fue casi unánime. Las entrevistas recogidas por el MIT Media Lab reflejan esta ambivalencia: algunos valoraron la ayuda de la IA para estructurar o corregir el texto, pero muchos describieron el resultado como “robótico” o carente de “alma”.
Un docente evaluador, citado en el informe, resumió: “Estos ensayos, aunque impecables en gramática y estructura, carecen de matices personales y parecen escritos por una máquina”.

En cuanto a la calidad de los ensayos, los textos generados con IA tendieron a ser más homogéneos y menos originales, tanto en el uso de vocabulario como en la estructura argumentativa. El análisis NLP mostró que los ensayos del grupo IA compartían patrones y entidades nombradas (personas, lugares, fechas) de forma mucho más repetitiva que los escritos sin ayuda.
Los docentes humanos, a diferencia del “juez” de IA, penalizaron la falta de creatividad y la escasa personalización de los textos generados con ChatGPT.
Percepciones de los participantes: satisfacción y sentido de propiedad
Las entrevistas post-tarea permitieron profundizar en la experiencia subjetiva de los estudiantes. Según el MIT Media Lab, quienes usaron ChatGPT valoraron la facilidad para obtener frases de transición o corregir errores gramaticales, pero varios expresaron incomodidad ética o una sensación de “culpa” por depender de la IA. Algunos limitaron su uso a tareas auxiliares, como traducción o sugerencias de estructura, mientras que otros reconocieron haber copiado y pegado fragmentos sin mayor edición.
En el grupo de buscador web, la percepción de autoría fue intermedia: los participantes reconocieron haber integrado ideas propias con información encontrada en línea, pero mantuvieron un mayor control sobre el contenido final. En el grupo “solo cerebro”, la satisfacción y el sentido de propiedad fueron los más altos, con comentarios que destacaron la oportunidad de expresar ideas personales y reflexionar en profundidad.
Un patrón recurrente fue la dificultad de los usuarios de IA para recordar o citar sus propios argumentos, lo que sugiere una menor consolidación de la información en la memoria a largo plazo.
Esta “deuda cognitiva“, como la denomina el estudio, implica que la facilidad inmediata proporcionada por la IA se paga con una menor retención y comprensión profunda del material.
Implicaciones educativas: advertencia sobre la “deuda cognitiva”
El equipo de investigación advierte que la integración masiva de asistentes de IA en entornos educativos puede tener consecuencias no deseadas para el desarrollo de habilidades cognitivas fundamentales.
Según el MIT Media Lab, la reducción de la carga cognitiva y el “cognitive offloading” (delegar procesos mentales en herramientas externas) pueden fomentar una actitud pasiva, disminuir el pensamiento crítico y limitar la capacidad de aprendizaje autónomo.
El estudio compara el efecto de ChatGPT con el conocido “efecto Google“, por el cual los usuarios de buscadores tienden a recordar dónde encontrar la información, pero no el contenido en sí. Sin embargo, la IA va un paso más allá: al sintetizar respuestas en lenguaje natural y ofrecer soluciones inmediatas, puede desalentar la exploración activa, la evaluación crítica de fuentes y la construcción personal del conocimiento.
Los autores alertan sobre el riesgo de homogeneización y “cámaras de eco” en el aprendizaje asistido por IA, donde los estudiantes reciben respuestas predecibles y alineadas con los sesgos del modelo, perdiendo exposición a perspectivas diversas y oportunidades para el debate argumentativo. Además, la pérdida del sentido de autoría puede afectar la motivación y la identidad intelectual de los estudiantes.
“Mientras que el uso de LLM tuvo un impacto medible… los participantes del grupo LLM tuvieron peor desempeño que sus pares en todos los niveles: neural, lingüístico, de puntuación”, concluye el informe del MIT Media Lab.

Limitaciones y recomendaciones de los autores
El estudio reconoce ciertas limitaciones, como el tamaño y la composición de la muestra (universitarios de Boston), la concentración en la tarea de escritura de ensayos y el uso exclusivo de ChatGPT como asistente de IA. Los autores sugieren que futuras investigaciones incluyan participantes de mayor diversidad, diferentes modelos de IA y tareas educativas variadas.
Entre las recomendaciones, el equipo del MIT Media Lab subraya la necesidad de equilibrar el uso de IA con el desarrollo de habilidades cognitivas propias. Proponen estrategias híbridas, donde la IA se utilice para tareas rutinarias o de apoyo, pero se preserve la exigencia de que los estudiantes generen, organicen y revisen ideas de forma autónoma.
Además, insisten en la importancia de estudios longitudinales para evaluar el impacto a largo plazo de la IA en la memoria, la creatividad y la autorregulación intelectual.
Finalmente, el estudio plantea una advertencia: la comodidad y eficiencia que ofrecen los asistentes de IA pueden tener un costo oculto en términos de aprendizaje profundo y autonomía intelectual.
Según el MIT Media Lab, comprender y gestionar esta “deuda cognitiva” será clave para diseñar políticas educativas que aprovechen los beneficios de la IA sin sacrificar el desarrollo integral de los estudiantes.