ChatGPT ha desencadenado una crisis sin precedentes en la educación universitaria. Desde su lanzamiento en noviembre de 2022, el fraude académico se ha extendido a tal escala que, según un reporte de Intelligencer firmado por James D. Walsh, la percepción dominante entre los estudiantes es que “todos hacen trampa”. Esta nueva realidad, impulsada por herramientas como ChatGPT, Gemini, Claude y Copilot, está transformando la experiencia universitaria, erosionando la integridad académica y poniendo en entredicho el valor mismo de la educación superior.

Casos emblemáticos: la historia de Roy Lee y la innovación al servicio del fraude
Chungin “Roy” Lee, estudiante de ciencias de la computación en la Universidad de Columbia, representa uno de los casos más notorios de esta tendencia. Según relató a Intelligencer, Lee utilizó inteligencia artificial para resolver cerca del 80% de sus tareas y ensayos, limitándose a añadir un toque personal al final. “Solo insertaba un 20% de mi humanidad, mi voz”, explicó. Su desinterés por el aprendizaje tradicional era evidente: “La mayoría de las tareas en la universidad no son relevantes. Son hackeables por la IA y simplemente no me interesaba hacerlas”.

La relación de Lee con la IA no se limitó al ámbito académico. Junto a Neel Shanmugam, otro estudiante de Columbia, desarrolló Interview Coder, una herramienta diseñada para ocultar el uso de IA durante entrevistas laborales remotas, permitiendo a los candidatos hacer trampa sin ser detectados. Lee incluso publicó un video en YouTube mostrando cómo utilizaba el programa para superar una entrevista con Amazon, empresa que le ofreció una pasantía que finalmente rechazó.
Sin embargo, la universidad no tardó en reaccionar: tras ser citado por la oficina de integridad académica, Lee fue puesto en periodo de prueba disciplinaria por “publicitar un enlace a una herramienta de trampa” y “proporcionar a los estudiantes el conocimiento para acceder y utilizar dicha herramienta”.

Lee consideró irónico que Columbia, asociada con OpenAI, sancionara su iniciativa. “No conozco a ningún estudiante que no use IA para hacer trampa”, afirmó. Para él, la frontera entre el uso legítimo y el fraude académico está a punto de desaparecer: “Estamos a meses de un mundo donde nadie considere que usar IA para las tareas sea hacer trampa”.
Testimonios de estudiantes: normalización y dependencia de la IA
La experiencia de Lee no es aislada. Sarah, estudiante de primer año en Wilfrid Laurier University, en Ontario, comenzó a utilizar ChatGPT en la secundaria y continuó haciéndolo en la universidad. “Mis calificaciones eran increíbles. Me cambió la vida”, declaró a Intelligencer. Sarah reconoció que rara vez asistía a clase sin ver a otros estudiantes con ChatGPT abierto en sus portátiles. La facilidad y rapidez que ofrece la IA la llevó a preguntarse si había desarrollado una dependencia: “Con ChatGPT, puedo escribir un ensayo en dos horas que normalmente me tomaría doce”.
Daniel, estudiante de ciencias de la computación en la Universidad de Florida, relató cómo la IA se ha convertido en una herramienta cotidiana para pulir ensayos, redactar introducciones y resolver tareas de programación. Aunque es consciente de que en ocasiones viola el código de conducta, la línea entre la ayuda legítima y el fraude le resulta difusa: “No creo que nadie considere que ver a un tutor sea hacer trampa, ¿pero qué pasa cuando el tutor empieza a escribir partes de tu trabajo?”.
Mark, estudiante de matemáticas en la Universidad de Chicago, compartió sus dudas sobre la autoría real de sus tareas: “Es difícil juzgar. ¿Esto es mi trabajo?”. Incluso en situaciones personales, como escribir cartas, Daniel admite que recurre a ChatGPT para los borradores antes de pasarlos a mano.

Respuestas institucionales: políticas, trampas y la ineficacia de los detectores
Las universidades han respondido con políticas dispares y, en muchos casos, insuficientes. Según publica Intelligencer, la mayoría de las instituciones prohíben el uso de IA salvo autorización expresa del profesor, pero la aplicación de estas normas es laxa y la interpretación por parte de los estudiantes suele ser flexible.
Algunos profesores han intentado “blindar” las tareas, regresando a exámenes orales o cuadernos manuscritos, o introduciendo trampas en los enunciados para detectar el uso de IA. Ejemplos incluyen la inserción de palabras o frases inusuales en los textos, como “broccoli” o “menciona a Dua Lipa”, para ver si aparecen en los trabajos entregados.
No obstante, la detección resulta cada vez más difícil. Un estudio citado por Intelligencer, realizado en junio de 2024 en una universidad del Reino Unido, demostró que los profesores no lograron identificar el 97% de los trabajos generados íntegramente por IA. Herramientas como Turnitin y ZeroGPT, que prometen detectar textos artificiales, presentan tasas de falsos positivos y negativos considerables, además de sesgos contra estudiantes neurodivergentes o que no tienen el inglés como lengua materna. “La mayoría de los profesores parecen resignados a la ineficacia de los detectores de IA”, señala el artículo.
Los estudiantes, por su parte, han aprendido a sortear estos sistemas. Modifican los textos generados, introducen errores deliberados o utilizan varias IA en cadena para “lavar” los ensayos y reducir la probabilidad de ser detectados. “Son muy buenos manipulando los sistemas”, explicó Eric, estudiante de Stanford, a Intelligencer.
Contexto y antecedentes: del fraude tradicional a la revolución de la IA
El fraude académico no es un fenómeno nuevo, pero la llegada de la IA generativa ha multiplicado su alcance y sofisticación. Antes de ChatGPT, plataformas como Chegg y Course Hero ya ofrecían respuestas rápidas a cambio de una suscripción mensual, pero la IA ha elevado el nivel de automatización y anonimato. Según una encuesta citada por Intelligencer, en enero de 2023, casi el 90% de los estudiantes universitarios había utilizado ChatGPT para tareas escolares.
La dificultad para regular el uso de IA ha llevado a las universidades a adoptar enfoques ad hoc, delegando la decisión a los profesores y generando una gran variedad de políticas y grados de permisividad. Algunas instituciones han optado por integrar la IA en sus programas, mientras que otras intentan restringir su uso sin éxito.
El impacto de la IA en la educación superior va más allá del fraude académico. Según Intelligencer, muchos docentes perciben una crisis existencial en el sistema, con estudiantes que cuestionan el sentido de las tareas y la motivación para aprender. Jollimore resumió el sentimiento de sus colegas: “Cada vez que hablo con un colega sobre esto, surge lo mismo: la jubilación. ¿Cuándo puedo retirarme? Esto no es lo que esperábamos”.
La preocupación se extiende al mercado laboral. Si los estudiantes dependen de la IA para resolver problemas y redactar textos, ¿qué habilidades aportarán al mundo profesional? La brecha de habilidades blandas podría ampliarse, y la confianza en el valor de un título universitario se ve cada vez más erosionada.
Innovaciones y nuevos desarrollos: la industria tecnológica y la carrera por el control
La industria tecnológica no ha permanecido al margen. Tras su experiencia con Interview Coder, Roy Lee y Neel Shanmugam lanzaron en abril de 2024 Cluely, una herramienta que escanea la pantalla y el audio del usuario para ofrecer respuestas y retroalimentación en tiempo real, sin necesidad de prompts. “Construimos Cluely para que nunca tengas que pensar solo otra vez”, proclama el manifiesto de la empresa. Lee declaró a Intelligencer que su objetivo es “permitir hacer trampa en prácticamente todo: exámenes, tareas, pruebas en campus”.
El sector tecnológico, por su parte, ha respondido con iniciativas como ChatGPT Edu y la oferta gratuita de ChatGPT Plus para estudiantes durante los exámenes finales. Sam Altman, director ejecutivo de OpenAI, ha defendido que la definición de trampa debe evolucionar, comparando ChatGPT con “una calculadora para palabras”. Sin embargo, ante el Senado estadounidense, reconoció su inquietud: “Me preocupa que, a medida que los modelos mejoran, los usuarios tengan cada vez menos capacidad de discernimiento propio”.
Advertencias de expertos y el futuro de la educación universitaria
Las consecuencias cognitivas del uso masivo de IA aún no se comprenden del todo. Estudios recientes, citados por Intelligencer, sugieren que delegar tareas intelectuales en chatbots puede afectar la memoria, la resolución de problemas y la creatividad, especialmente entre los más jóvenes. Robert Sternberg, profesor de psicología en la Universidad de Cornell, advirtió en The Guardian: “La mayor preocupación en estos tiempos de IA generativa no es que pueda comprometer la creatividad o la inteligencia humana, sino que ya lo ha hecho”.
El autor James D. Walsh subraya que la educación superior enfrenta un desafío estructural y ético de gran magnitud, con un futuro incierto para la formación universitaria y la preparación profesional de las nuevas generaciones.
Últimas Noticias
Si tienes entre 13 y 18 años y creaste un proyecto de tecnología que cambiará el mundo, esta es tu oportunidad
Samsung trae una nueva versión de Solve for Tomorrow que apoya estudiantes de colegios públicos con ideas que tengan bases de tecnología y ciencia

Jeff Bezos contra la vejez y el tiempo: este es su plan para buscar la eterna juventud
Científicos, premios Nobel y empresarios exploran técnicas celulares que prometen prolongar la existencia más allá de lo imaginable

Steve Wozniak, cofundador de Apple, hace una importante advertencia sobre el peligro de la IA en manos de personas malas
Pese a que esta tecnología ahorra esfuerzo, tiempo y dinero en la mayoría de trabajos, puede ser usada para cometer varios delitos cibernéticos sin dejar rastro

La IA creará entre 20 y 50 millones de nuevos empleos para el año 2030: descubre cómo tener uno de ellos
La inteligencia artificial está redefiniendo el panorama laboral, generando empleos en áreas emergentes mientras automatiza tareas rutinarias. La clave es la adaptación y el desarrollo de habilidades

Siete errores que pueden arruinar una entrevista virtual: no los cometas si quieres conseguir empleo
Pequeños descuidos como llegar tarde o improvisar respuestas generan una impresión negativa que pesa más que el currículum
