La inteligencia artificial dispara la producción científica, pero inunda la ciencia de artículos mediocres
Desde que los chatbot de inteligencia artificial generativa irrumpieron en los laboratorios, la ciencia publica más que nunca y más rápido que nunca. Pero bajo esa avalancha de textos impecables, un estudio alerta de un problema creciente: distinguir el conocimiento valioso del ruido generado por la IA es cada vez más difícil.
Por Enrique Coperías
Un estudio con más de dos millones de artículos muestra que los grandes modelos de lenguaje aumentan la productividad de los científicos —especialmente de quienes no hablan inglés— pero dificultan la evaluación de la calidad científica. Crédito: IA-DALL-E-©RexMolón-Producciones
Desde que ChatGPT se abrió al público a finales de 2022, algo empezó a cambiar en los pasillos de la ciencia. Muchos investigadores comentaban, casi con alivio, que ahora eran más productivos que nunca gracias a las nuevas herramientas de inteligencia artificial (IA).
Al mismo tiempo, editores de revistas científicas alertaban de un fenómeno inquietante: la llegada masiva de artículos científicos impecablemente escritos, pero con escaso valor científico. Aquellas conversaciones informales apuntaban a una transformación profunda que ahora ha sido medida por primera vez con datos a gran escala.
Un estudio liderado por investigadores de la Universidad Cornell, en Estados Unidos, confirma que los grandes modelos de lenguaje, como ChatGPT, están impulsando la producción científica, aunque a costa de inundar el sistema con trabajos mediocres que dificultan distinguir las contribuciones valiosas del simple ruido generado por la IA.
🗣️«Es un patrón muy extendido, en distintos campos de la ciencia, desde las ciencias físicas y computacionales hasta las biológicas y sociales —afirma Yian Yin, profesor de Ciencias de la Información en Cornell. Y añade en un comunicado de esta universidad—: Hay un gran cambio en nuestro ecosistema científico actual que merece una reflexión muy seria, especialmente por parte de quienes toman decisiones sobre qué ciencia debemos apoyar y financiar».
Un análisis de dos millones de artículos científicos
El trabajo, publicado en la revista Science, analiza más de dos millones de artículos subidos entre enero de 2018 y junio de 2024 a tres grandes repositorios de prepublicaciones: arXiv, bioRxiv y Social Science Research Network (SSRN), que abarcan respectivamente las ciencias físicas, de la vida y las ciencias sociales.
Se trata de trabajos que aún no han pasado por la revisión por pares, un terreno ideal para observar cambios tempranos en las prácticas científicas.
El equipo comparó textos escritos presumiblemente por humanos antes de 2023 con textos generados por IA para entrenar un modelo capaz de detectar artículos probablemente redactados con ayuda de grandes modelos de lenguaje. Con ese detector de IA, pudieron identificar qué científicos estaban usando estas herramientas, medir cuántos artículos publicaban antes y después de adoptarlas y comprobar si esos trabajos acababan siendo aceptados en revistas científicas.
El gran aumento de productividad impulsado por la IA
Los resultados muestran un claro subidón de productivida:
✅ En arXiv, los investigadores que parecían utilizar modelos de lenguaje publicaron alrededor de un tercio más de artículos científicos que quienes no contaban con ese apoyo.
✅ En bioRxiv y SSRN, el aumento superó el 50%.
La ventaja clave para los científicos no angloparlantes
El beneficio fue especialmente notable entre los científicos cuya lengua materna no es el inglés. Investigadores de instituciones asiáticas, por ejemplo, publicaron entre un 43% y un 89,3% más de trabajos tras empezar a usar estas herramientas, según el repositorio analizado.
El efecto es tan grande que Yin anticipa un cambio global en las regiones con mayor productividad científica, desplazándose hacia áreas tradicionalmente penalizadas por la barrera del idioma.
El estudio también detecta efectos positivos menos evidentes. En la búsqueda de bibliografía científica, Bing Chat —el primer buscador basado en IA ampliamente adoptado— resulta más eficaz que las herramientas tradicionales para encontrar publicaciones recientes y libros relevantes, que suelen quedar fuera de los circuitos de citas científicas más habituales.
🗣️ «Las personas que usan modelos de lenguaje se están conectando con conocimientos más diversos, lo que podría estar impulsando ideas más creativa —explica Keigo Kusumegi, primer autor del trabajo y doctorando en Ciencias de la Información. Y añade—: En el futuro, quiero explorar si el uso de IA conduce a una investigación científica más innovadora e interdisciplinar».
Cuando la buena escritura ya no garantiza buena ciencia
Sin embargo, el reverso de esta facilidad para producir artículos científicos es una creciente dificultad para evaluarlos. En los trabajos escritos por humanos, un lenguaje claro pero complejo —con vocabulario elaborado y frases largas— suele ser un buen indicador de investigación de calidad.
En los tres repositorios analizados, los artículos probablemente escritos por personas y con alta complejidad lingüística tenían más probabilidades de ser aceptados por revistas científicas.
En cambio, los textos con puntuaciones altas de complejidad que parecían generados por IA eran menos aceptados, lo que sugiere que, pese a su apariencia convincente, muchos carecían de valor científico real.
Un desafío para editores, revisores y financiadores
Esta desconexión entre la calidad de la escritura y la calidad científica puede tener consecuencias profundas, advierte Yin, en un contexto en el que editores y revisores luchan por identificar trabajos valiosos y universidades y agencias financiadoras ya no pueden evaluar a los científicos únicamente por su productividad.
Los autores de esta investigación subrayan que sus conclusiones se basan en observaciones y que el siguiente paso será realizar análisis causales, como experimentos controlados en los que algunos científicos usen modelos de lenguaje y otros no.
Yin también planea organizar un simposio científico en marzo de 2026, en el campus de Ithaca, para examinar cómo la IA generativa está transformando la investigación científica y cómo científicos y responsables políticos pueden orientar mejor estos cambios.
A medida que la IA se consolida como una especie de cocientífico, capaz de ayudar a escribir, programar e incluso generar ideas, sus efectos previsiblemente se ampliarán. Por eso, Yin insta a los responsables públicos a establecer nuevas normas que regulen un paisaje tecnológico en rápida evolución.
🗣️ «Ya no se trata de preguntar si has usado IA —resume—. La pregunta es cómo exactamente la has usado y si es realmente útil o no».
El estudio cuenta también con la firma de Xinyu Yang, doctorando en Informática; Paul Ginsparg, profesor de Cornell y fundador de arXiv; y Mathijs de Vaan y Toby Stuart, de la Universidad de California en Berkeley.▪️
TAMBIÉN TE PUEDE INTERESAR:
🤖 Por qué los estudiantes universitarios escriben mejor que ChatGPT
🤖 ¿Es inevitable la guerra entre humanos e inteligencias artificiales?
🤖 Los chatbots más populares exageran habitualmente los resultados científicos
🤖 ¿La inteligencia artificial nos hace menos creativos? Un nuevo estudio dice que sí
Información facilitada por la Universidad Cornell
Fuente: Keigo Kusumegi et al. Scientific production in the era of large language models. Science (2025). DOI: 10.1126/science.adw3000

