La inteligencia artificial no seduce a los ciberdelincuentes (de momento)

La inteligencia artificial promete revolucionarlo todo, pero no ha conquistado uno de los territorios donde más se temía su impacto: el cibercrimen. Un análisis masivo de foros clandestinos revela que, por ahora, los ciberdelincuentes la observan más con curiosidad que con verdadera utilidad.

Por Enrique Coperías, periodista científico

La inteligencia artificial aún no ha transformado el cibercrimen: los delincuentes digitales siguen recurriendo a herramientas tradicionales más que a sistemas avanzados de IA.

La inteligencia artificial aún no ha transformado el cibercrimen: los delincuentes digitales siguen recurriendo a herramientas tradicionales más que a sistemas avanzados de IA. Foto de Joshua Koblin en Unsplash

Qué dice la evidencia: la IA aún no revoluciona el cibercrimen

Durante años, el imaginario colectivo, alimentado por películas, informes alarmistas y titulares grandilocuentes, ha dibujado un futuro en el que la inteligencia artificial (IA) se convierte en el arma definitiva de los ciberdelincuentes. Algoritmos autónomos capaces de hackear infraestructuras críticas, redes criminales gestionadas por máquinas y un ecosistema digital fuera de control.

Sin embargo, la realidad es mucho más prosaica.

Un estudio pionero basado en el análisis de más de cien millones de mensajes en foros clandestinos de ciberdelincuencia revela que la IA, lejos de revolucionar este mundo, apenas ha logrado hacerse un hueco significativo. La investigación, realizada por expertos de varias universidades británicas, concluye que el impacto de estas herramientas es, por ahora, limitado, fragmentario y, en muchos casos, decepcionante.

Mucho ruido y pocas nueces

El trabajo, uno de los primeros en examinar empíricamente cómo se adopta la IA en el cibercrimen, desmonta buena parte de las narrativas apocalípticas. Aunque existe un gran interés en herramientas como los modelos de lenguaje, su uso real dista mucho de ser transformador.

Los investigadores Jack Hughes, Ben Colliery Daniel R. Thomas, del Centro de Delitos Cibernéticos de Cambridge, en la Universidad de Cambridge (Reino Unido), analizaron conversaciones en comunidades clandestinas durante más de una década, con especial atención al periodo posterior a la irrupción de ChatGPT en 2022. Lo que encontraron fue un patrón claro: abundan las discusiones sobre IA, pero escasean los ejemplos de uso efectivo.

En otras palabras, los ciberdelincuentes hablan mucho de inteligencia artificial, pero la utilizan poco —y cuando lo hacen, su utilidad suele ser modesta.

Un problema global

A escala global, la ciberdelincuencia se ha convertido en una de las mayores economías ilícitas del planeta: distintas estimaciones sitúan su coste anual en torno a 10,5 billones de dólares en 2025, una cifra que la equipararía a la tercera economía mundial si fuera un país .

Más allá del impacto económico, los datos muestran un fenómeno en expansión, con ataques cada vez más frecuentes, desde el phishing hasta el ransomware, y con millones de usuarios y empresas afectados cada año, en un contexto donde el fraude digital y el robo de credenciales siguen siendo las principales puertas de entrada .

Este crecimiento sostenido, cercano al 10% anual en la última década, confirma que el cibercrimen no solo persiste, sino que se consolida como una amenaza estructural para la economía global.

El cibercrimen no es Silicon Valley

Para entender por qué la IA no ha revolucionado el cibercrimen, conviene mirar cómo funciona este ecosistema. Lejos de la imagen de genios solitarios o sofisticadas organizaciones tecnológicas, la mayoría de la ciberdelincuencia opera como una economía de bajo coste, basada en herramientas ya hechas.

El estudio, publicado en arXiv, describe este entorno como un conjunto de «pequeñas startups criminales» que reutilizan recursos existentes: scripts, plantillas, bases de datos filtradas o servicios alquilados. La innovación tecnológica profunda es rara. En general, los ciberdelincuentes no desarrollan nuevas herramientas; adaptan las que ya existen.

Esto explica por qué la IA no ha supuesto una disrupción inmediata. Incorporarla requiere tiempo, conocimiento y recursos, tres factores escasos en este ecosistema.

El mayor riesgo no está en los hackers, sino en sistemas de inteligencia artificial mal protegidos que pueden abrir nuevas puertas a ataques con poco esfuerzo.

El mayor riesgo no está en los hackers, sino en sistemas de inteligencia artificial mal protegidos que pueden abrir nuevas puertas a ataques con poco esfuerzo. Foto de FlyD en Unsplash

La IA como asistente, no como revolución

Donde sí se observa cierta adopción es en tareas auxiliares. Los modelos de lenguaje se utilizan como sustitutos de lo que antes eran búsquedas en Google o consultas en foros técnicos: ayudan a corregir errores de código, generar fragmentos simples o resolver dudas básicas.

Es decir, la inteligencia artificial funciona más como un asistente que como un multiplicador de capacidades. Según el estudio, su papel es comparable al de una chuleta digital más avanzada, no al de un motor de innovación.

Además, este beneficio se concentra en usuarios ya experimentados. Los principiantes, los llamados script kiddies, encuentran más útil recurrir a herramientas prefabricadas que intentar generar código con IA que no comprenden.

El mito del «Dark AI»

Uno de los grandes temores asociados a la IA es la aparición de versiones clandestinas diseñadas específicamente para delinquir: los llamados modelos sin restricciones o Dark AI. Sin embargo, la investigación sugiere que este fenómeno está sobredimensionado.

En los foros clandestinos analizados, estas herramientas generan entusiasmo inicial, pero rápidamente decepción. Muchos usuarios descubren que no ofrecen capacidades significativamente superiores a las de modelos convencionales con simples modificaciones ojailbreaks.

De hecho, algunos desarrolladores de estas supuestas herramientas criminales reconocen que su producto no es más que una versión ligeramente modificada de modelos existentes. La innovación , una vez más, es limitada.

Barreras culturales y sociales

El estudio también apunta a un factor inesperado: la cultura del propio cibercrimen. Aprender a hackear no es solo adquirir conocimientos técnicos, sino formar parte de una comunidad.

Los foros clandestinos no son solo repositorios de información. Hablamos de espacios de socialización donde se construye identidad. En ese contexto, la IA no sustituye el aprendizaje colectivo ni el prestigio asociado al dominio técnico.

Esto limita su papel como herramienta de iniciación. Los nuevos miembros siguen valorando el reconocimiento social y el aprendizaje compartido, algo que una máquina no puede proporcionar.

Automatización sí, pero en lo de siempre

Donde la IA muestra cierto impacto es en actividades ya altamente automatizadas, como el fraude online, el spam o la manipulación de contenidos en buscadores. En estos casos, las herramientas permiten mejorar la eficiencia o la calidad de los textos.

Por ejemplo, los modelos de lenguaje facilitan la redacción de mensajes de phishing más creíbles o la generación de contenido para estafas online. También ayudan a traducir textos, ampliando el alcance geográfico de estas operaciones.

Sin embargo, estos usos no suponen un cambio estructural, sino una mejora incremental de prácticas existentes.

Dos futuros posibles (que aún no llegan)

Los autores del estudio plantean dos escenarios teóricos sobre cómo la IA podría transformar el cibercrimen en el futuro:

1️⃣ El primero, más extremo, imagina una especie de ciberdelincuencia automatizada: sistemas capaces de ejecutar ataques informáticos complejos sin intervención humana. Un modelo cercano a las fantasías de ciencia ficción.

2️⃣ El segundo, más plausible, describe un ecosistema en el que la inteligencia artificial reduce ligeramente las barreras de entrada y mejora la productividad, pero sin alterar las estructuras fundamentales.

Por ahora, ninguno de estos escenarios se ha materializado. La realidad se sitúa claramente en el segundo, y de forma aún muy incipiente.

Pese al auge de la IA, el cibercrimen sigue siendo un ecosistema de bajo coste basado en scripts y recursos reutilizados, no en innovación tecnológica avanzada.

Pese al auge de la IA, el cibercrimen sigue siendo un ecosistema de bajo coste basado en scripts y recursos reutilizados, no en innovación tecnológica avanzada. Foto de Kaptured by Kasia en Unsplash

La economía también importa

Otro de los hallazgos clave del estudio es que la adopción tecnológica en el cibercrimen está condicionada por factores económicos. A diferencia de las empresas legales, estas organizaciones no cuentan con inversión, infraestructuras ni protección frente a la competencia.

Esto hace que la innovación tecnológica sea arriesgada y, en muchos casos, innecesaria. Si un método ya funciona, aunque sea rudimentario, no hay incentivos para cambiarlo.

Además, la saturación del mercado y la presión de las fuerzas de seguridad actúan como freno adicional a la experimentación.

Menos amenaza inmediata, más complejidad futura

Los resultados del estudio ofrecen un mensaje matizado. Por un lado, desinflan la idea de una explosión inminente de ciberdelincuencia impulsada por IA. Por otro, no descartan que su impacto aumente con el tiempo.

✅ «Los ciberdelincuentes están experimentando con estas herramientas, pero, por lo que podemos observar, no les están aportando beneficios reales en su propio trabajo. Nuestro mensaje a la industria es claro: no entren en pánico todavía —asegura Collier. Y añade—: El peligro inmediato proviene de que las empresas y los propios ciudadanos adopten sistemas de inteligencia artificial mal protegidos, dejándolos expuestos a nuevos ataques cibernéticos potencialmente catastróficos que los ciberdelincuentes pueden llevar a cabo con poco esfuerzo o habilidad».

La historia de la tecnología muestra que las innovaciones rara vez transforman un sector de forma inmediata. Su adopción suele ser gradual, irregular y llena de fracasos.

En el caso del cibercrimen, todo apunta a que la inteligencia artificial seguirá ese mismo camino: más evolución que revolución.

El riesgo de mirar al lugar equivocado

Quizá la lección más importante del estudio sea otra. Mientras la atención pública se centra en escenarios extremos —máquinas que toman el control del mundo o hackers superpotenciados por IA—, los riesgos reales son más mundanos.

La IA no está creando nuevas formas de ciberdelincuencia radicalmente distintas, sino mejorando las existentes. Y eso, aunque menos espectacular, puede ser igual de problemático.

En definitiva, la amenaza no es tanto una inteligencia artificial fuera de control, sino su integración silenciosa en prácticas ya conocidas.

Una evolución discreta, casi invisible, pero que podría acabar teniendo efectos profundos.▪️(5-mayo-2026)

PREGUNTAS&RESPUESTAS: IA y Cibercrimen

🏴‍☠️ ¿Está la IA aumentando el cibercrimen?

No de forma significativa por ahora. Mejora algunas prácticas, pero no cambia el modelo general.

🏴‍☠️ ¿Puede la IA hackear sistemas automáticamente?

Actualmente no. Los escenarios totalmente automatizados siguen siendo teóricos.

🏴‍☠️ ¿Qué es el Dark AI?

Son versiones supuestamente sin restricciones de modelos de IA, pero en la práctica no ofrecen ventajas claras.

🏴‍☠️ ¿Cuál es el mayor riesgo actual?

La adopción de sistemas de IA mal protegidos por empresas y usuarios.

🏴‍☠️ ¿La IA facilita que cualquiera sea ciberdelincuente?

No de forma relevante. Las barreras técnicas y sociales siguen existiendo.

  • Fuente: Jack Hughes et al. Stand-Alone Complex or Vibercrime? Exploring the adoption and innovation of GenAI tools, coding assistants, and agents within cybercrime ecosystems. arXiv (2026). DOI: https://doi.org/10.48550/arXiv.2603.29545

Siguiente
Siguiente

Los cerebros de los bailarines se sincronizan cuando se mueven juntos