¿Está ChatGPT escribiendo artículos científicos? Un estudio revela el verdadero impacto de la IA en la redacción académica

ChatGPT y los modelos de lenguaje ya han dejado su huella en la ciencia biomédica. En 2024, al menos un 13,5% de los artículos podrían haber sido escritos con ayuda de IA. El fenómeno supera incluso al impacto del COVID en el lenguaje científico.

Por Enrique Coperías

Un científico biomédico escribe su artículo asistido por inteligencia artificial, mientras un androide simboliza el papel creciente de los modelos de lenguaje como ChatGPT en la redacción académica.

Un científico biomédico escribe su artículo asistido por inteligencia artificial, mientras un androide simboliza el papel creciente de los modelos de lenguaje como ChatGPT en la redacción académica. En 2024, al menos el 13,5% de los resúmenes publicados en PubMed mostraron señales de haber sido generados con ayuda de IA. Imagen generada con DALL-E

Desde la irrupción de ChatGPT en noviembre de 2022, el modo en que los científicos redactan sus artículos ha cambiado de forma drástica. Aunque la inteligencia artificial generativa todavía genera desconfianza —por sus errores, sesgos y posibilidad de abuso—, su uso se ha extendido con rapidez en el mundo académico. Pero ¿hasta qué punto se han infiltrado los modelos de lenguaje en la producción científica?

Un grupo internacional de investigadores, liderado por el científico computacional Dmitry Kobak, del Hertie Institute for AI in Brain Health, en la Universidad de Tübingen, ha intentado responder a esa pregunta con un enfoque original: en lugar de usar detectores de IA, optaron por estudiar la evolución del lenguaje en más de 15 millones de resúmenes biomédicos publicados entre 2010 y 2024.

El método se inspira en los estudios de mortalidad en pandemia: si un exceso de muertes indica un evento extraordinario, un exceso de palabras inusuales puede revelar un cambio disruptivo en la escritura. ¿El resultado?

En 2024, al menos el 13,5% de los resúmenes analizados parecen haber pasado por las manos —o teclas— de una inteligencia artificial.

Detectar la huella lingüística de la IA

La clave del análisis está en detectar palabras que han experimentado un crecimiento anómalo en su uso. Los autores compararon las frecuencias de uso de cada término en 2021 y 2022 —años preChatGPT— y proyectaron su evolución esperada en 2024. Cuando una palabra aparece mucho más de lo previsto, puede estar revelando la influencia de modelos como ChatGPT, que tienden a emplear ciertos términos y estructuras con notable insistencia.

El patrón es claro. Mientras que las crisis sanitarias como el brote de ébola en 2015 o la pandemia de la covid-19 en 2020 generaron un aumento abrupto en palabras técnicas, como coronavirus, remdesivir y pandémico, el auge de los LLM (modelo extenso de lenguajes) trajo consigo un alud de adjetivos y verbos con tono grandilocuente o estilizado, como profundizar, mostrar, subrayar, fundamental y exhaustivo.

Este vocabulario no aporta contenido nuevo, pero sí imprime un sello reconocible en el estilo de los modelos de IA entrenados para embellecer texto. Los autores clasificaron estas palabras en exceso y observaron que, a diferencia del periodo de la covid-19, donde el 90% de los nuevos términos eran sustantivos técnicos, en 2024 el 80% eran verbos y adjetivos. Un viraje radical que sugiere una intervención más estilística que conceptual.

Cuánto se usa la IA en la redacción científica

El estudio estima que al menos 200.000 resúmenes biomédicos de 2024 fueron redactados con asistencia de IA, aunque esta cifra es solo un mínimo: los textos que usaron modelos sin adoptar su estilo característico no entran en la cuenta.

Para reforzar sus conclusiones, los autores emplearon dos listas distintas de palabras marcadoras de los LLM. Una fue construida automáticamente con 291 palabras poco frecuentes que se dispararon en 2024, y otra fue más manual y contenía solo diez términos comunes —entre ellos, especialmente, además y crucial— que aparecieron con una frecuencia mucho mayor de lo esperado. Ambas listas arrojaron estimaciones casi idénticas: en torno al 13,5% de textos influenciados por la IA.

Además, esta cifra varía mucho según el campo de estudio, la revista científica y el país de origen de los autores. En disciplinas como la bioinformática o la computación biomédica, la proporción superó el 20%.

En países como China, Corea del Sur o Taiwán, los textos influenciados por la IA fue del 25%. En contraste, países angloparlantes, como Reino Unido y Australi, apenas rozaron el 5%.

Las diferencias también son notables entre revistas científicas. En publicaciones de acceso abierto y revisión rápida, como Sensors y Cureus, el uso de IA se disparó hasta el 40%. Mientras tanto, en revistas de alta reputación, como Nature, Science y Cell, el porcentaje fue mucho menor, en torno al 7%.

El uso masivo de IA podría homogeneizar el lenguaje científico, reduciendo la diversidad de estilos, enfoques e ideas. Si todos los textos suenan igual, ¿cómo se destaca la innovación?

El uso masivo de IA podría homogeneizar el lenguaje científico, reduciendo la diversidad de estilos, enfoques e ideas. Si todos los textos suenan igual, ¿cómo se destaca la innovación? Foto: Sonia Radosz

Ejemplos reales: así suena un resumen escrito con IA

Los investigadores ilustran su hallazgo con ejemplos de textos reales extraídos de resúmenes de 2023. Todos comparten un tono artificiosamente enfático:

✅ «Al profundizar meticulosamente en la compleja red que conecta […] esta exhaustiva revisión analiza su papel como factores de riesgo significativos…».

✅ «Una comprensión integral de la intrincada interacción entre […] es fundamental para estrategias terapéuticas eficaces…».

✅ «En primer lugar, exploramos las complejidades de […], acentuando su papel indispensable en la fisiología celular…».

Estas frases, plagadas de términos como meticuloso, intrincado, exhaustivo y fundamental, son muy representativas del estilo que los modelos de IA tienden a producir —y que muchos autores, voluntariamente o no, conservan en los textos finales.

¿IA como herramienta o como trampa?

El estudio no pretende demonizar el uso de la inteligencia artificial en la escritura científica. De hecho, sus autores reconocen que estos modelos pueden ser útiles para mejorar la redacción, especialmente para quienes no son hablantes nativos de inglés. También pueden ayudar a estructurar textos científicos o generar borradores preliminares.

Sin embargo, el estudio advierte de los riesgos: las inteligencias artificiales pueden inventar referencias, distorsionar resúmenes o uniformar los textos hasta eliminar su originalidad.

«La homogeneización del lenguaje científico puede empobrecer la diversidad de ideas y enfoques», alertan los autores. Si todas las introducciones empiezan a sonar igual, se pierde parte de la riqueza del pensamiento académico. Además, este fenómeno puede agravar problemas existentes como la injusticia en las citas, esto es, cuando ciertos trabajos o autores son sistemáticamente ignorados.

Otra preocupación es el uso malintencionado de las LLM por parte de fábricas de artículos científicos que producen trabajos falsos con apariencia académica. La automatización de la escritura científica podría amplificar la producción de contenido de baja calidad o incluso fraudulento.

¿Cómo deberían responder revistas y universidades?

Varios organismos científicos y editoriales ya han tomado cartas en el asunto. Algunas revistas académicas prohíben el uso de IA para la revisión por pares o no aceptan a los LLM como coautores.

Sin embargo, la vigilancia sigue siendo difícil. El método propuesto en este estudio —basado en el análisis de vocabulario— podría ser una herramienta útil para monitorizar el cumplimiento de estas normas.

El trabajo, además, ofrece una perspectiva histórica. Al comparar el impacto de los modelos de lenguaje con otros eventos globales, como la pandemia de covid-19, Kobak y sus colegas concluyen que el cambio estilístico que ha provocado la IA no tiene precedentes en la literatura biomédica reciente. Y todo apunta a que esta tendencia irá a más.

Un nuevo capítulo en la ciencia escrita

Aún es pronto para conocer el alcance total de esta revolución silenciosa. Pero los datos sugieren que la inteligencia artificial no solo está cambiando cómo pensamos o investigamos, sino también cómo escribimos ciencia.

Y, en este campo, las palabras no son solo ornamento: son la herramienta principal para comunicar, persuadir y construir conocimiento.

Kobak y su equipo lo tienen claro: si el lenguaje científico cambia, es porque la ciencia también lo está haciendo. Ahora queda decidir cómo queremos que suene el futuro. ▪️

  • Fuente: Dmitry Kobak et al. Delving into LLM-assisted writing in biomedical publications through excess vocabulary. Science Advances (2025). DOI:10.1126/sciadv.adt3813

Anterior
Anterior

¿Qué comían realmente los neandertales? Hallan en un yacimiento en Alemania una «fábrica de grasa» de hace 125.000 años

Siguiente
Siguiente

¿Cómo afecta el calor extremo a la producción de leche? Lo que revela un estudio con más de 320 millones de datos