El auge de la inteligencia artificial obliga a repensar la escritura académica universitaria

El avance de la IA generativa desafía los modelos tradicionales de evaluación y genera un profundo debate sobre el futuro de la autoría, el pensamiento crítico y la integridad en la enseñanza superior

Guardar
De acuerdo con The New Yorker, desde el lanzamiento de ChatGPT en noviembre de 2022, estudiantes universitarios han adoptado masivamente herramientas de IA para tareas.

La inteligencia artificial generativa ha transformado profundamente la educación superior, desafiando los fundamentos pedagógicos de la escritura académica. Según una encuesta global de Thoughtworks (2024), el 76% de los líderes tecnológicos en educación anticipan repercusiones a largo plazo por la adopción de IA generativa, aunque la mayoría no la percibe como un riesgo general para la integridad académica.

Investigaciones del MIT Media Lab documentan una reducción significativa en la actividad cerebral —de hasta un 55%— en estudiantes que utilizan ChatGPT para redactar ensayos, lo que plantea interrogantes sobre el impacto cognitivo de estas herramientas.

De acuerdo con The New Yorker, desde el lanzamiento de ChatGPT en noviembre de 2022, estudiantes universitarios han adoptado masivamente herramientas de IA para tareas que van desde la organización de apuntes hasta la redacción completa de ensayos.

Este fenómeno ha obligado a las instituciones a replantear sus modelos de evaluación: el 59% de los líderes académicos reportan aumentos en conductas deshonestas, según The New Yorker.

Los avances tecnológicos, como el
Los avances tecnológicos, como el uso de herramientas de IA como ChatGPT, están alterando la forma en que los estudiantes aprenden y los profesores enseñan, desde la redacción de ensayos hasta la organización de apuntes, este cambio plantea nuevas interrogantes sobre el valor de la educación tradicional. (Imagen Ilustrativa Infobae)

Ante este escenario, el regreso de exámenes escritos a mano se ha convertido en una respuesta común en universidades estadounidenses ante la proliferación de la IA generativa, aunque no existen cifras oficiales sobre su implementación a nivel nacional.

La disrupción tecnológica ha expuesto contradicciones profundas en los sistemas educativos tradicionales, donde la priorización de productos sobre procesos ha creado condiciones ideales para la dependencia de IA.

Sin embargo, esta crisis contiene semillas de innovación: nuevas pedagogías centradas en el pensamiento crítico, evaluaciones orales y modelos híbridos de escritura colaborativa humano-IA emergen como respuestas transformadoras.

El futuro de la escritura académica no implica su desaparición, sino una redefinición fundamental de sus propósitos, métodos y valores en la era algorítmica.

La creciente dependencia de herramientas
La creciente dependencia de herramientas de IA en las tareas académicas ha generado una crisis de legitimidad en las instituciones educativas, muchas de las cuales carecen de recursos para detectar contenido generado por IA, afectando la confianza en los sistemas tradicionales de evaluación. (Imagen ilustrativa Infobae)

La disrupción actual: el colapso del modelo tradicional

La penetración de herramientas como ChatGPT, Claude y Gemini en la vida académica estudiantil alcanza niveles sin precedentes. Encuestas recientes revelan que aproximadamente 9 de cada 10 estudiantes universitarios (92%) utilizan IA en alguna forma, y un 88% la emplea específicamente para tareas evaluativas, desde la generación de esquemas hasta la redacción completa de ensayos.

The New Yorker documenta el caso de Alex, de la Universidad de Nueva York (NYU), quien reconoce abiertamente que utiliza IA para “cualquier tipo de escritura en la vida”, empleando diferentes herramientas según la necesidad: Claude para investigación, DeepSeek para razonamiento y Gemini para generación de imágenes, mientras que ChatGPT cubre necesidades generales.

Este fenómeno trasciende la simple comodidad: representa un cambio paradigmático en la percepción estudiantil del valor educativo. La eficiencia se ha convertido en el principio rector, con estudiantes reportando reducciones de 30 horas a 90 minutos en la elaboración de trabajos mediante el uso estratégico de prompts. Esta transición no es meramente instrumental; refleja un desajuste fundamental entre las prácticas pedagógicas heredadas y las realidades cognitivas de la generación digital.

El auge de la inteligencia
El auge de la inteligencia artificial ha dado paso a nuevas pedagogías que priorizan el pensamiento crítico, la escritura colaborativa y el análisis en lugar de la simple reproducción de contenido, con el objetivo de preparar a los estudiantes para un entorno digital en constante evolución. (Imagen Ilustrativa Infobae)

Según The New Yorker, un estudio del Pew Research Center (2024) reveló que una cuarta parte de los adolescentes estadounidenses utiliza ChatGPT para trabajos escolares, el doble que el año anterior. OpenAI estima que uno de cada tres universitarios emplea sus productos, aunque estas cifras podrían ser conservadoras.

La facilidad de acceso y la capacidad de la IA para generar textos completos en segundos han convertido a estas herramientas en aliadas cotidianas de los estudiantes. The New Yorker ilustra cómo Alex utilizó Claude para generar ensayos completos a partir de fotografías tomadas en una exposición de arte, ajustando los resultados hasta obtener una calificación de A-menos. Sin embargo, reconoció que su comprensión del contenido era superficial y que, de haber sido interrogado en detalle, habría estado “complicado” para defender los argumentos del ensayo.

La incapacidad de las instituciones para responder efectivamente a este tsunami tecnológico ha creado una crisis de legitimidad. Encuestas realizadas por la American Association of Colleges and Universities muestran una preocupación generalizada: muchos líderes académicos consideran que su facultad tiene dificultades para detectar contenido generado por IA.

Herramientas de detección como Turnitin reportan una precisión cercana al 85% en la identificación de textos generados íntegramente por IA, aunque enfrentan limitaciones significativas ante textos editados o híbridos y pueden arrojar falsos positivos. Es por eso que dicho medio señala que tecnologías como GPTZero y Copyleaks han mostrado resultados inconsistentes, con tasas de acierto variables y falsos positivos preocupantes.

Como respuesta a los desafíos
Como respuesta a los desafíos impuestos por la IA generativa, algunas universidades han vuelto a implementar exámenes manuscritos, un método que busca garantizar que los estudiantes puedan demostrar sus conocimientos sin la intervención de herramientas algorítmicas. - (Imagen Ilustrativa Infobae)

Esta brecha tecnológica ha erosionado la confianza en los sistemas de evaluación tradicionales, particularmente en asignaturas humanísticas, donde la escritura constituye el núcleo evaluativo. El caso del profesor Corey Robin, en Brooklyn College, es sintomático: tras descubrir problemas con el uso de IA, implementó exámenes escritos a mano como recurso para preservar la autenticidad cognitiva.

“Decidí dejar de asignar ensayos para casa”, explicó Robin, quien ahora prefiere exámenes en los que los estudiantes deben identificar y contextualizar pasajes leídos en clase. Además, según consigan el medio mencionado, el regreso a lo analógico, como los exámenes manuscritos en “blue books”, se ha convertido en una respuesta común en muchas universidades, con ventas de blue books aumentando significativamente en ciertas universidades en los últimos dos años.

Siva Vaidhyanathan, profesor de estudios de medios en la Universidad de Virginia, también ha vuelto a los exámenes escritos a mano y considera la posibilidad de implementar evaluaciones orales, evocando métodos de la antigüedad.

Consecuencias cognitivas y educativas

El uso de la inteligencia
El uso de la inteligencia artificial en la escritura académica ha demostrado tener efectos negativos en la memoria de trabajo y la capacidad de sintetizar conceptos, lo que sugiere que delegar procesos cognitivos a máquinas puede interferir en el aprendizaje profundo y la comprensión crítica. - (Imagen Ilustrativa Infobae)

Investigaciones pioneras del MIT Media Lab han cuantificado el costo cognitivo de la dependencia de IA. Utilizando electroencefalografía, demostraron que estudiantes que redactaban ensayos con asistencia de ChatGPT exhibían una reducción significativa en la conectividad de áreas cerebrales asociadas a la síntesis conceptual y la memoria de trabajo, en comparación con quienes escribían sin apoyo de IA.

Además, estos estudiantes retienen menos información y tienen dificultades para recordar los argumentos de sus propios textos. The New Yorker cita estudios neurocientíficos que muestran que los estudiantes que utilizan ChatGPT para redactar ensayos presentan menos actividad cerebral en áreas asociadas con la síntesis conceptual y la memoria de trabajo.

Incluso, estos estudiantes retienen menos información y tienen dificultades para recordar los argumentos de sus propios textos. Este fenómeno de “desconexión cognitiva” sugiere que la delegación de procesos compositivos a IA impide la consolidación de aprendizajes profundos.

La escritura manual activa redes neuronales únicas que integran conocimiento, organizan ideas y generan comprensiones profundas —procesos que se atrofian cuando se externaliza la producción textual. La sustitución sistemática de la práctica escritora ha generado déficits observables en competencias académicas esenciales.

La escritura generada por IA
La escritura generada por IA puede tener efectos más allá del ámbito académico, ya que los estudiantes que dependen excesivamente de estas herramientas pueden carecer de las habilidades necesarias para resolver problemas complejos y aplicar pensamiento crítico en el mundo profesional. (Imagen Ilustrativa Infobae)

La capacidad para construir argumentos complejos, identificar matices semánticos y desarrollar voz autoral se resiente cuando el proceso escritor se reduce a la edición superficial de outputs algorítmicos. En ese sentido, The New Yorker reporta que profesores han notado que los estudiantes universitarios están más cómodos con extractos que con artículos completos, y prefieren cuentos cortos a novelas.

Un estudio citado encontró que el 58% de los estudiantes en dos universidades del Medio Oeste tenían tantos problemas interpretando los párrafos iniciales de Casa Desolada, de Charles Dickens, que “no serían capaces de leer la novela por sí mismos” —y estos eran estudiantes de literatura inglesa.

El problema trasciende lo académico: investigaciones del Reading Hall of Fame indican que estudiantes que no ejercitan la escritura profunda muestran menor capacidad para resolver problemas complejos en entornos profesionales, donde el pensamiento crítico es esencial.

El regreso a lo analógico

Frente a la vulnerabilidad de las evaluaciones digitales, instituciones desde Harvard hasta community colleges han implementado estrategias de retorno a lo analógico. El resurgimiento de exámenes escritos a mano en ‘blue books’ o cuadernillos de examen representa la contramedida más visible de esta tendencia creciente.

La adopción de IA en
La adopción de IA en la educación plantea una serie de dilemas éticos, entre los que se incluye la cuestión de la autoría y el esfuerzo cognitivo, ya que muchos estudiantes optan por delegar tareas complejas a las máquinas sin involucrarse directamente en el proceso de aprendizaje. (Imagen Ilustrativa Infobae)

Sin embargo, este movimiento enfrenta críticas por su potencial regresividad: especialistas y organizaciones de apoyo a la discapacidad advierten que los exámenes manuscritos pueden incrementar la ansiedad y las dificultades de los estudiantes con disgrafía o discapacidades motoras.

Al mismo tiempo, pedagogos cuestionan la relevancia de priorizar habilidades caligráficas en la era digital, mientras que otros expertos advierten que una vez acostumbrado a los ritmos fluidos de escribir a máquina, volver a lápiz y papel puede sentirse limitante.

Pero los neurocientíficos han descubierto que la “experiencia encarnada” de escribir a mano accede a partes del cerebro que escribir a máquina no lo hace. Soluciones híbridas como el modelo de “doble capa” de la Universidad de Michigan ofrecen alternativas: estudiantes redactan borradores iniciales en clase sin tecnología, luego pueden usar IA para revisiones bajo supervisión, documentando cada intervención algorítmica.

La actualización de códigos de honor constituye otro frente de adaptación. The New Yorker informa que instituciones líderes como Cornell University han desarrollado políticas matizadas que categorizan el uso de IA en tres niveles: prohibido, permitido con atribución, y alentado. La clave reside en la especificidad: en lugar de prohibiciones genéricas, los programas de estudio contemporáneos detallan exactamente qué herramientas pueden usarse, para qué tareas, y con qué protocolos de documentación.

En tanto, la Universidad de Florida ha ido más allá, integrando alfabetización en IA como competencia transversal obligatoria mediante su iniciativa “AI Across the Curriculum”. Todos los estudiantes, independientemente de su especialidad, deben demostrar competencia en cuatro dimensiones: comprensión técnica básica, aplicación ética, evaluación crítica de outputs, y creación responsable.