Por qué los estudiantes universitarios escriben mejor que ChatGPT
¿Puede una inteligencia artificial escribir como un estudiante? Los resultados de un nuevo estudio constatan que, aunque ChatGPT domina la gramática, carece del alma que distingue a la escritura humana.
Por Enrique Coperías
Un estudiante y un robot compiten en silencio por escribir el mejor ensayo: ¿quién tendrá el toque más humano? Imagen generada con DALL-E
Un trabajo de investigación publicado en la revista Written Communication por Feng (Kevin) Jiang, de la Universidad de Beihang, en Pekín (China), y Ken Hyland, de la Universidad de Anglia del Este, en el Reino Unido, ha comparado ensayos generados por una inteligencia artificial (IA) con trabajos escritos por estudiantes universitarios de carne y hueso. Y los resultados de este reto son muy interesantes.
El objetivo de Jiang y Hyland cuando se embarcaron en este estudio no era otro que analizar hasta qué punto modelos como el ChatGPT pueden imitar la escritura académica humana, especialmente en lo que respecta a la forma en que los autores interactúan con sus lectores.
A través de un análisis detallado de 145 ensayos humanos y 145 textos producidos por la IA, los investigadores se toparon con que, si bien los escritos generados por la inteligencia artificial son coherentes y gramaticalmente precisos, presentan una notable carencia: el toque personal.
La difusa línea que separa la escritura humana y de la IA
A medida que la línea que separa la escritura humana de la escritura generada por la IA se vuelve cada vez más difícil de distinguir, resulta fundamental que las personas aprendan no solo a leer y escribir, sino también a analizar críticamente los textos que consumen y redactan.
El estudio resalta la urgencia de promover una alfabetización crítica, que permita identificar los matices, intenciones y fuentes detrás de un contenido escrito, así como una conciencia ética que nos ayude a reflexionar sobre el uso responsable de herramientas como ChatGPT en contextos educativos, profesionales y sociales.
En plena era digital, donde los algoritmos pueden producir textos casi indistinguibles de los escritos por los seres humanos, estas competencias son esenciales para mantener una comunicación auténtica, informada y ética, señalan los autores del trabajo. De hecho, Jiang y Hyland tienen la esperanza de que sus ayuden a los docentes de todo el mundo a detectar el uso indebido de la inteligencia artificial en trabajos académicos, así como identificar los textos que han sido generados por máquinas.
Un incentivo para el plagio
«Desde su lanzamiento al público [en noviembre de 2022], ChatGPT ha generado gran preocupación entre los docentes, que temen que los estudiantes lo utilicen para elaborar sus trabajos académicos —dice el profesor Hyland. Y añade—: El temor radica en que herramientas como este chatbot puedan facilitar el plagio y debilitar habilidades fundamentales como la alfabetización y el pensamiento crítico».
Esta preocupación es aún mayor considerando que actualmente no contamos con herramientas cien por cien eficaces para identificar textos escritos por la IA.
«Ante estas inquietudes, decidimos investigar hasta qué punto puede la inteligencia artificial imitar la escritura académica humana, poniendo especial atención en cómo los autores se comunican e interactúan con sus lectores», cuenta el profesor Hyland.
La ausencia de un «toque personal»
El equipo de investigación analizó 145 ensayos redactados por estudiantes universitarios de su puño y letra y los comparó con otros 145 generados por ChatGPT. «Nos interesaba especialmente observar lo que llamamos marcadores de compromiso, como preguntas retóricas y comentarios personales —explica el profesor Hyland. Y añade—: Descubrimos que los ensayos escritos por estudiantes reales incorporaban una rica variedad de estrategias de interacción, lo que los hacía más atractivos y persuasivos».
En palabras de Jiang, «los textos generados por humanos estaban repletos de preguntas retóricas, comentarios en primera persona y apelaciones directas al lecto. Todas ellas técnicas que fortalecen la claridad, la conexión emocional y la solidez del argumento».
En contraste, los ensayos generados por ChatGPT, aunque lingüísticamente intachables, resultaban bastante impersonales. La inteligencia artificial replicaba con precisión las convenciones de la escritura académica, pero no lograba transmitir una voz auténtica ni expresar una postura clara.
Ningún algoritmo puede enseñar a pensar
Según el profesor Hyland, los textos de la IA «tendían a evitar las preguntas y limitaban los comentarios subjetivos. En general, eran textos menos atractivos, menos convincentes y carentes de una perspectiva definida». Y continúa—: Esto refleja la naturaleza de su entrenamiento, basado en datos estadísticos y priorización de la coherencia por sobre los matices conversacionales».
Pese a sus limitaciones, el estudio no desestima el valor de la inteligencia artificial en el ámbito educativo.
Por el contrario, los investigadores sostienen que herramientas como ChatGPT deben aprovecharse como recursos pedagógicos, y no como atajos para evitar el aprendizaje.
«Cuando los estudiantes asisten a la escuela, al instituto o a la universidad, no solo están aprendiendo a escribir, sino también a pensar, y eso es algo que ningún algoritmo puede replicar», concluye el profesor Hyland. ▪️
Información facilitada por la Universidad de Anglia del Este
Fuente: Feng (Kevin) Jiang, Ken Hyland. Does ChatGPT Write Like a Student? Engagement Markers in Argumentative Essays. Written Communication (2025). DOI: https://doi.org/10.1177/07410883251328311