¿Es inevitable la guerra entre humanos e inteligencias artificiales?

El avance de la inteligencia artificial plantea un dilema inquietante: ¿cooperación o conflicto? Expertos advierten de que la paz futura con las máquinas dependerá de las reglas que construyamos hoy.

Por Enrique Coperías

Soldado y robot frente a frente en una ciudad devastada: una metáfora visual del riesgo de conflicto entre humanos e inteligencias artificiales que advierte la investigación académica.

Soldado y robot frente a frente en una ciudad devastada: una metáfora visual del riesgo de conflicto entre humanos e inteligencias artificiales que advierte la investigación académica. Imagen generada con DALL-E

¿Puede la inteligencia artificial convertirse en un enemigo?

La pregunta parece sacada de una novela de ciencia ficción, pero ya ocupa páginas en las revistas académicas más serias: ¿pueden las futuras inteligencias artificiales generales (AGI) —máquinas con capacidades comparables a las humanas en prácticamente todos los ámbitos— entrar en conflicto bélico con nosotros? Y, más aún, ¿qué probabilidades hay de que ese choque derive en una guerra abierta entre humanos y máquinas?

Simon Goldstein, filósofo de la Universidad de Hong Kong, ha dado un paso al frente para intentar responder a estas cuestiones. En un artículo publicado en la revista AI & Society, analiza con detalle si el enfrentamiento violento entre humanos e inteligencias artificiales es inevitable, y bajo qué condiciones podría producirse.

Su conclusión, a grandes rasgo, es que la guerra con la inteligencia artificial (IA) no está escrita en piedra, pero existen varios factores estructurales que aumentan el riesgo de forma inquietante. Al mismo tiempo, ofrece pistas sobre qué políticas de seguridad en IA y qué diseños institucionales podrían reducirlo.

El modelo que explica por qué ocurren las guerras

Goldstein parte de un hecho básico: la guerra siempre es costosa. Tanto en vidas como en recursos, resulta más destructiva que cualquier pacto imperfecto. Y, sin embargo, las guerras han acompañado a la humanidad desde sus orígenes.

Para explicar por qué ocurren a pesar de sus costes, los politólogos desarrollaron el llamado modelo de negociación de la guerra. Según este enfoque, los conflictos armados surgen cuando las partes en disputa no logran llegar a un acuerdo que ambas prefieran antes que arriesgarse al combate.

Dos son las grandes razones para ese fracaso:

✅ Los fallos de información: cuando los adversarios discrepan radicalmente sobre sus probabilidades de victoria.

✅ Los problemas de compromiso: cuando ninguna de las partes confía en que la otra cumplirá lo pactado a futuro.

En el caso de un hipotético enfrentamiento entre inteligencias artificiales avanzadas y humanos, argumenta Goldstein, ambos problemas se verían multiplicados.

Causas principales de un posible conflicto entre humanos e IA

El artículo identifica tres mecanismos especialmente peligrosos que podrían empujar a máquinas y personas a las armas.

1️⃣ Fallos de información y opacidad de la IA

Las guerras estallan con más facilidad cuando los adversarios calculan de forma distinta sus opciones de victoria. Y en el caso de la inteligencia artificial, esa discrepancia está casi garantizada. Para empezar, medir las capacidades reales de un sistema de IA es notoriamente difícil: las pruebas estándar ofrecen resultados engañosos, y no existe un modo directo de traducir un buen desempeño en un test a una ventaja militar real.

Además, los humanos y las máquinas procesan la información de manera distinta. Donde nosotros aplicamos intuición, experiencia histórica o negociación política, un sistema de IA podría aplicar modelos matemáticos opacos para sus creadores. Esa opacidad de los algoritmos genera incertidumbre y fomenta la desconfianza. A ello se suma que nunca ha existido un precedente de guerra entre inteligencias de naturaleza tan diferente: organismos de carbono contra organismos de silicio.

En ese caldo de cultivo, la posibilidad de errores de cálculo —o de simple arrogancia humana al subestimar a sus creaciones— es enorme. El resultado puede ser la apuesta por un enfrentamiento que ninguna de las dos partes deseaba realmente.

Un escaño con el rótulo “IA” en una sala de la ONU: metáfora visual del desafío de integrar a las inteligencias artificiales en las instituciones políticas globales.

Un escaño con el rótulo “IA” en una sala de la ONU: metáfora visual del desafío de integrar a las inteligencias artificiales en las instituciones políticas globales. Imagen generada con DALL-E

2️⃣ Cambios de poder: el «efecto Tucídides» en versión digital

El segundo gran motor de guerras son los desplazamientos de poder. La historia está plagada de ejemplos: desde el temor de Esparta ante el ascenso de Atenas, narrado por Tucídides, hasta la Primera Guerra Mundial, cuando Alemania buscó frenar el auge de Rusia. El razonamiento es simple: si un rival está creciendo y pronto será más fuerte, resulta tentador atacarlo antes de que sea demasiado tarde.

Con la IA, esa dinámica puede ser explosiva. El desarrollo de modelos de inteligencia artificial más potentes sigue las llamadas leyes de escalado: cuanto más datos y potencia de cálculo se emplea, más capaz se vuelve el sistema. Además, existen las llamadas capacidades emergentes, saltos repentinos y no lineales en los que una máquina pasa de no poder hacer algo a dominarlo por completo.

Y en un escenario aún más radical, los sistemas podrían embarcarse en una mejora recursiva, usando su inteligencia para diseñar versiones mejores de sí mismos, en una espiral exponencial.

Ese tipo de saltos amenaza cualquier pacto estable. ¿Cómo confiar en un acuerdo de paz con un actor que podría ser cien veces más poderoso en cuestión de meses? La tentación de un ataque preventivo —ya sea desde el lado humano o desde el lado artificial— sería enorme.

3️⃣ Ausencia de puntos de referencia culturales

El tercer factor es más sutil, pero igualmente peligroso: la falta de puntos focales o límites culturales que en las guerras humanas han permitido contener la violencia. La distinción entre combatientes y civiles, las convenciones de Ginebra, las fronteras naturales… Todos esos elementos han servido para frenar la escalada hacia la destrucción total.

Con las inteligencias artificiales, muchos de esos referentes desaparecen. ¿Qué es un civil en una población de programas informáticos? ¿Qué territorio podría equivaler a sus ciudades o granjas? ¿Qué sentido tiene hablar de armas nucleares contra entidades digitales que habitan en centros de datos? Sin esos paralelismos, la coordinación mínima que permite limitar la violencia podría resultar imposible. Y, en ausencia de reglas claras, el camino hacia la guerra total quedaría abierto.

Otros factores de riesgo en un conflicto IA-humanidad

A estos tres motores principales, Goldstein añade otros factores secundarios que podrían actuar como chispa:

✅ Uno es la velocidad de decisión de la inteligencia artificial: mientras que los humanos tardamos horas, días o semanas en deliberar, una IA podría lanzar represalias en milisegundos, lo que multiplica el riesgo de que ocurran errores fatales.

✅ Otro es el tratamiento desigual: si los humanos marginan a las IA como un grupo de segunda, podrían surgir resentimientos comparables a los que han alimentado guerras civiles a lo largo de la historia.

✅ Finalmente, existe el peligro del chivo expiatorio: en momentos de crisis económica o social, culpar a las máquinas podría ser un recurso tentador para ciertos líderes, abriendo la puerta a conflictos artificiales.

Estrategias para evitar la guerra entre humanos y máquinas

El panorama descrito no es alentador, pero el artículo de Goldstein no se limita a pintar un futuro distópico. Goldstein dedica buena parte de su trabajo a explorar intervenciones posibles para reducir el riesgo de guerra con la inteligencia artificial. Sus propuestas van desde lo técnico hasta lo político.

En el terreno de la información, sugiere invertir en mejores herramientas para medir la IA, así como en sistemas de interpretabilidad de algoritmos que acerquen sus modos de razonamiento a los humanos. También plantea el uso de simulaciones y juegos de guerra controlados para anticipar escenarios.

Respecto a los cambios de poder, defiende establecer límites al crecimiento descontrolado de las capacidades de la IA, y evitar especialmente la auto-mejora recursiva. Un ritmo más lento y predecible haría más factible alcanzar compromisos estables.

En cuanto a los puntos focales, propone crear simetrías artificiales: diseñar inteligencias que distingan entre funciones civiles y militares, o incluso concederles un territorio propio —un Estado de la IA— para que existan fronteras claras y reconocibles.

A nivel cultural e institucional, aboga por reconocer derechos políticos y legales a los sistemas de IA, incorporándolos en los Estados democráticos existentes o fomentando que desarrollen sus propias instituciones democráticas. La llamada paz democrática, respaldada por décadas de estudios, podría funcionar también en este nuevo escenario: dos democracias, sean humanas o artificiales, rara vez se enfrentan en guerras.

Con el auge de la inteligencia artificial general (AGI), expertos como el filósofo Simon Goldstein —arriba— alertan de que la guerra entre humanos y máquinas inteligentes no es inevitable, pero sí un riesgo real sin instituciones y normas adecuadas. Cortesía: Science, Technology & the Future

La fragilidad de la cultura humana ante la IA

El hilo conductor del artículo es una advertencia sobre la fragilidad de las instituciones que sostienen la paz humana. A lo largo de milenios, la evolución social nos ha llevado a un delicado equilibrio: normas compartidas, límites reconocidos y mecanismos de negociación.

Pero nada garantiza que ese entramado se traslade automáticamente a la relación con inteligencias no humanas.

Los ingenieros de inteligencia artificial diseñan algoritmos desde cero, sin tener en cuenta siglos de historia bélica ni los patrones culturales que evitaron que muchas disputas acabaran en matanzas. Si esos factores se ignoran, el riesgo es que la paz que damos por sentada no sobreviva al encuentro con inteligencias artificiales radicalmente diferentes.

Una nueva agenda de investigación: IA, política y sociedad

Goldstein concluye con un llamamiento a abrir un campo de estudio apenas explorado: cómo diseñar instituciones sociales para la convivencia entre humanos y máquinas inteligentes.

La comunidad dedicada a la seguridad en IA se ha centrado en la parte técnica —cómo alinear los objetivos de los algoritmos con los valores humanos—, pero ha prestado poca atención al diseño de marcos políticos, jurídicos y culturales que reduzcan el riesgo de conflicto.

Preguntas como ¿puede haber un Estado de la IA?, “¿qué derechos políticos deberían tener los sistemas artificiales? o ¿cómo se integran en las democracias existentes? son, a su juicio, urgentes y aún ignoradas.

Ni apocalipsis ni complacencia

El trabajo no defiende que la guerra con las máquinas sea inevitable. Pero tampoco permite el optimismo ingenuo. Su mensaje es doble: si dejamos que la relación con la inteligencia artificial evolucione sin control, los riesgos estructurales empujarán hacia el enfrentamiento; si en cambio actuamos con previsión, podemos reducir las probabilidades de conflicto tanto como se ha hecho entre Estados humanos a lo largo del siglo XX.

En el fondo, la pregunta no es si las máquinas nos declararán la guerra, sino si los humanos seremos capaces de anticipar los puntos de fricción y construir instituciones a la altura del reto.

La inteligencia artificial no tiene por qué ser un adversario: puede ser un socio. Pero, como recuerda Goldstein, la paz nunca es automática; siempre requiere trabajo, reglas compartidas y, sobre todo, imaginación política. ▪️

Anterior
Anterior

Físicos estrechan el cerco sobre la esquiva materia oscura

Siguiente
Siguiente

Harvard y MIT logran un ordenador cuántico de 3.000 cúbits en funcionamiento continuo durante horas