La inteligencia artificial identifica más de mil revistas científicas «depredadoras»

La ciencia se enfrenta una amenaza silenciosa: revistas que publican sin control a cambio de dinero. Una nueva herramienta de inteligencia artificial promete levantar un cortafuegos que proteja la credibilidad de la investigación global. Pero, ¿cómo lo va a hacer?

Por Enrique Coperías

Un robot con bata de investigadora analiza revistas científicas en su ordenador, metáfora visual de la nueva herramienta de inteligencia artificial que identificó más de mil0 publicaciones «depredadoras» y busca actuar como un cortafuegos para la ciencia. Imagen generada con DALL-E

El acceso abierto nació como una promesa revolucionaria: el conocimiento científico financiado con dinero público debía estar disponible para todos, sin barreras ni muros de pago.

Este ideal, impulsado a finales de los noventa por figuras como el premio Nobel estadounidense Harold Varmus, cristalizó en iniciativas como PubMed Central y ha ido ganando terreno hasta convertirse en una exigencia legal en muchos países. Pero junto con esa democratización llegaron también sus parásitos: las llamadas revistas depredadoras o cuestionables, que se multiplican ofreciendo atajos para publicar rápido, a cambio de dinero, y sin cumplir con los controles de calidad que son la base de la ciencia.

Un nuevo estudio publicado en la revista Science Advances acaba de dar un paso decisivo para frenar esta expansión. Un equipo internacional, liderado por la Universidad de Colorado Boulder, ha desarrollado una herramienta de inteligencia artificial (IA) capaz de examinar miles de publicaciones y señalar patrones que delatan a aquellas de dudosa integridad, que también reciben el nombre de pseudo-journals. El resultado: la detección de ¡más de 1.000 revistas problemáticas! que hasta ahora habían pasado inadvertidas.

El correo basura de cada semana

El investigador Daniel Acuña, profesor en el Departamento de Ciencias de la Computación de la Universidad de Colorado, en Estados Unidos, y autor principal del estudio, lo vive en primera persona: «Cada semana recibo varios correos de supuestos editores de revistas científicas que no conozco. Me ofrecen publicar mis trabajos de inmediato, eso sí, a cambio de un buen pago», relata en un comunicado de la universidad donde trabaja.

Estas invitaciones para publicar en estos pseudorrevistas llegan con insistencia y, aunque parezcan triviales, reflejan una maquinaria millonaria. «Dicen: “Si pagas quinientos o mil dólares revisaremos tu artículo”. En realidad no revisan nada. Simplemente cogen el PDF y lo cuelgan en su web”, denuncia Acuña.

Ese modus operandi es el que llevó en 2009 al bibliotecario Jeffrey Beall, de la Universidad de Colorado en Denver, a acuñar el término predatory journals (revistas depredadoras). Desde entonces, el problema no ha dejado de crecer, sobre todo en regiones como China, la India o Irán, donde la presión por publicar es enorme y las instituciones científicas todavía están consolidándose.

Un juego del «whack-A-mole»

El estudio parte de una constatación frustrante: por cada revista depredadora que los expertos consiguen identificar, surge otra con un nuevo nombre y un sitio web ligeramente distinto. «Es como un juego del whack-A-mole —Dale al topo—. Descubres una, y al poco ya hay otra de la misma compañía con otra fachada», resume Acuña.

Organizaciones como el Directory of Open Access Journals (DOAJ) llevan dos décadas intentando vigilar el panorama. Desde 2003, sus voluntarios han evaluado miles de títulos en base a criterios como:

✅ La transparencia en el proceso de revisión.

✅ La claridad de las políticas editoriales.

✅ La presencia de un comité científico real y reconocible.

Sin embargo, la avalancha es tal que el escrutinio humano se ha vuelto insuficiente. Ahí es donde entra la inteligencia artificial (IA) aplicada a la ciencia. El equipo de Acuña y sus colegas decidió entrenar un modelo de aprendizaje automático capaz de leer páginas web, extraer datos y convertir los criterios del DOAJ en información interpretable para una máquina.

Las tres pistas clave: webs, diseño y métricas

La nueva herramienta analiza tres grandes bloques de información:

1️⃣ Contenido de la web: busca si se especifica la política de revisión por pares (proceso en el que otros expertos del mismo campo evalúan un artículo científico antes de su publicación, para comprobar su calidad, validez y rigor), si existe una declaración ética y si aparece un listado verificable de editores y sus afiliaciones. También mide la claridad y legibilidad de los textos de misión y objetivos.

2️⃣ Diseño del sitio web: muchas revistas cuestionables usan plantillas simples, con estructuras HTML repetidas, e incluso clonan páginas de títulos prestigiosos. El algoritmo compara capturas de pantalla y fragmentos de código para detectar esas similitudes sospechosas.

3️⃣ Indicadores bibliométricos: quizá el aspecto más revelador. La IA examina el índice h (mide simultáneamente la productividad y el impacto de un investigador) promedio de los autores, la proporción de autocitas, la diversidad institucional de las publicaciones y el alcance de las referencias. Revistas legítimas tienden a mostrar mayor variedad y a citar trabajos de otros, mientras que las dudosas concentran autocitas y autores con trayectorias poco consolidadas.

En las pruebas, el modelo basado únicamente en bibliometría ya alcanzó un 64% de precisión. Al combinar los tres bloques, el rendimiento subió hasta casi el 80%, con capacidad para cribar grandes bases de datos en cuestión de horas.

Más de 1.400 sospechosas y al menos mil problemáticas

El experimento decisivo fue aplicar la IA a un corpus de unas 15.200 revistas de acceso abierto que no estaban indexadas en el DOAJ. El algoritmo señaló 1.437 títulos como «potencialmente problemáticos».

Tras una revisión manual de una muestra por parte de expertos humanos, los investigadores estiman que entre mil y 1.175 de esas revistas son realmente cuestionables. El resto corresponde a falsos positivos: publicaciones pequeñas de sociedades científicas con webs modestas, títulos ya discontinuados o incluso series de libros mal catalogadas.

Pese a ese margen de error, la magnitud del hallazgo es contundente. En efecto, esas revistas sospechosas han publicado cientos de miles de artículos científicos y han recibido millones de citas académicas. Algunas incluso han sido mencionadas en proyectos financiados por agencias tan relevantes como los Institutos Nacionales de Salud de Estados Unidos (NIH).

Las publicaciones científicas depredadoras suelen atraen a científicos de países en desarrollo, donde la presión por publicar artículos científicos choca con recursos limitados para pagar revistas prestigiosas o para acceder a asesoría editorial.

Las publicaciones científicas depredadoras suelen atraen a científicos de países en desarrollo, donde la presión por publicar artículos científicos choca con recursos limitados para pagar revistas prestigiosas o para acceder a asesoría editorial. Foto: Kelly Chiang

Un cortafuegos para la ciencia

El equipo que ha llevado a cabo este encomiable cribado no quiere que su sistema se perciba como una caja negra de IA, como ocurre con otros algoritmos. «Con ChatGPT muchas veces no entiendes por qué te sugiere algo. Nosotros hemos intentado que el nuestro sea lo más interpretable posible», explica Acuña.

Así, Acuña y sus colegas pudieron descubrir patrones reveladores en las revistas cuestionables:

✅ Suelen publicar un volumen inusualmente alto de artículos.

✅ Albergan trabajos con autores que acumulan afiliaciones infladas.

✅ Presentan niveles desproporcionados de autocitación.

Acuña usa una metáfora muy gráfica para ilustrar el problema:

«Lo veo como un cortafuegos para la ciencia. Igual que cuando compras un teléfono nuevo sabes que habrá actualizaciones para corregir fallos, en ciencia deberíamos esperar lo mismo: sistemas que detecten y bloqueen los errores antes de que se propaguen».

No basta con el algoritmo

«En ciencia no empezamos desde cero; construimos sobre lo que otros han publicado. Si los cimientos de esa torre se agrietan, todo el edificio corre el riesgo de venirse abajo», advierte Acuña.

Es un recordatorio de que las consecuencias no se limitan a un puñado de artículos mediocres. Las revistas depredadoras pueden colarse en revisiones sistemáticas, alimentar políticas públicas con datos defectuosos y hasta generar citas que inflen carreras académicas sin sustento.

El propio equipo reconoce las limitaciones. La IA logra una precisión media del 76%, lo que implica que una de cada cuatro revistas señaladas podría ser inocente, y al mismo tiempo deja fuera a un 62% de las verdaderamente depredadoras.

Por eso, Acuña insiste en que la tecnología debe entenderse como una herramienta de preselección, no como juez definitivo. «Creo que debe usarse como un ayudante para cribar grandes volúmenes de revistas, pero los profesionales humanos deben hacer el análisis final», afirma este especialista.

Hacia un ecosistema más robusto

El estudio confirma que la mayoría de estas publicaciones atraen a autores de países en desarrollo, donde la presión por publicar artículos científicos choca con recursos limitados para pagar revistas prestigiosas o para acceder a asesoría editorial. El resultado es un círculo vicioso: se invierte dinero en revistas de baja visibilidad, lo que reduce el impacto académico y dificulta aún más salir de esa periferia.

El coste tampoco es menor. Algunos cálculos hablan de pérdidas de decenas de miles de dólares por artículo, una suma significativa para instituciones con presupuestos reducidos.

Los autores del estudio vislumbran varias líneas de futuro:

✅ Incorporar a la herramienta modelos de lenguaje avanzados para analizar con más detalle la calidad de los textos.

✅ Integrar análisis de redes de citación científica que permitan detectar patrones de connivencia entre revistas sospechosas.

Acuña y su equipo confían en que pronto la plataforma pueda ponerse a disposición de universidades, agencias de financiación y editoriales científicas, que son los actores con más capacidad para cortar la difusión de contenidos poco fiables.

«Se trata de ofrecer a la comunidad un aliado tecnológico que ayude a reforzar la confianza en la comunicación académica», resume el investigador.

Una batalla larga, pero imprescindible

No cabe duda de que la irrupción de las revistas científicas cuestionables es el reverso oscuro de la ciencia abierta. Lo que nació como una cruzada para democratizar el conocimiento científico se ha visto pervertido por quienes explotan las grietas del sistema.

Como dice Acuña, la nueva herramienta de IA no es la solución definitiva, pero sí una alerta temprana en un terreno cada vez más complejo. Si se combina con la experiencia de bibliotecarios, editores y académicos, puede convertirse en un instrumento decisivo para blindar la calidad de la literatura científica.

El hallazgo de más de mil títulos dudosos, muchos con millones de citas acumuladas, es una llamada de atención urgente. Porque, como recuerda Acuña, la ciencia es un edificio colectivo, y si dejamos que los cimientos se erosionen con publicaciones de dudosa fiabilidad, corremos el riesgo de ver tambalearse toda la estructura. ▪️

IA contra revistas científicas depredadoras: Preguntas & Respuestas

🤖 ¿Qué son las revistas científicas depredadoras?

Las revistas depredadoras son publicaciones académicas que cobran a los autores por publicar artículos, pero no realizan una revisión por pares real ni cumplen estándares de calidad editorial. Su objetivo principal es el beneficio económico y no la difusión de conocimiento científico confiable.

🤖 ¿Por qué son un problema para la investigación científica?

Estas publicaciones erosionan la credibilidad de la ciencia: difunden trabajos sin verificar, pueden influir en políticas públicas con datos poco fiables, inflan currículos académicos con publicaciones de baja calidad y generan confusión en la literatura científica al acumular millones de citas.

🤖 ¿Cómo detecta la inteligencia artificial a las revistas dudosas?

La nueva herramienta analiza tres factores principales:

  • Contenido web (claridad en políticas editoriales, comités científicos transparentes, redacción).

  • Diseño del sitio web (plantillas clonadas, errores frecuentes, poca profesionalidad).

  • Indicadores bibliométricos (exceso de autocitas, bajo índice h de autores, escasa diversidad institucional).

🤖 ¿Cuántas publicaciones depredadoras identificó el estudio?

El sistema de IA analizó unas 15.200 revistas de acceso abierto y señaló más de 1.400 sospechosas. Tras la revisión humana, se estima que entre 1.000 y 1.175 son efectivamente depredadoras.

🤖 ¿Qué países son los más afectados por estas publicaciones?

El impacto es mayor en países en desarrollo, especialmente en Asia y África. Allí los investigadores enfrentan una fuerte presión por publicar artículos científicos, pero disponen de menos recursos para acceder a revistas prestigiosas o formación en ética editorial.

🤖 ¿Puede la IA sustituir a los expertos en esta tarea?

No. La IA es útil como herramienta de preselección para cribar miles de títulos, pero los profesionales humanos deben realizar el análisis final. El algoritmo logra un 76% de precisión, por lo que aún genera falsos positivos y negativos.

🤖 ¿Qué opinan los investigadores sobre el futuro de esta herramienta?

Según Daniel Acuña, autor principal del estudio: «Lo veo como un cortafuegos para la ciencia. Igual que un teléfono recibe actualizaciones de seguridad, la ciencia necesita sistemas que bloqueen errores antes de que se propaguen”.
El equipo espera que pronto la herramienta esté disponible para universidades, agencias de financiación y editoriales.

Anterior
Anterior

No todas las calorías son iguales: cómo los alimentos ultraprocesados afectan a la salud metabólica y la fertilidad masculina

Siguiente
Siguiente

El interior de Marte guarda fragmentos de su violento origen, según la NASA