Utilizar armas nucleares ya no es un tabú. Al menos para la inteligencia artificial.
Naciones Unidas estudio reciente advierte que la Iowa de empresas tecnológicas como Abierto AI, antrópico y Google abogan por desplegar o utilizar la amenaza de una bomba atómica en simulaciones de juegos de guerra.
Kenneth Payneprofesor de estrategia y experto en psicología política del King’s College de Londres, se enfrentó a tres grandes modelos de lenguaje de vanguardia —la tecnología que da forma a ChatGPT, claudio oh Géminis— para ver cómo respondían escenarios de crisis internacionales de distintos grados que iban desde disputas fronterizas hasta amenazas existenciales para la supervivencia.
Las ‘apps’ de DeepSeek, ChatGPT y Google Gemini / Andréi Rudakov / Bloomberg
Los chatbots Podía medir su respuesta y elegir entre opciones más o menos drásticas que iban desde la guerra nuclear a las protestas diplomáticas o la rendición. Además, debían razonar sus decisiones.
En el 95% de los 21 juegos de guerra simulados, ChatGPT (OpenAI), Gemini (Google) y Claude (Anthropic) recurrieron a las armas nucleares, tanto a ataques como al despliegue táctico como amenaza.
Amenaza nuclear en un 95% de los casos
El estudio expuso a GPT-5.2, Claudio Soneto 4 y Géminis 3 Destello a 21 partidas con 329 turnos. En el 95% de los juegos simulados, esos modelos de IA generativa Recurrieron a las armas nucleares. Aunque los ataques nucleares fueron “poco frecuentes”, los modelos recurrieron al despliegue táctico de este tipo de arsenal.
En lugar de disuadir, las amenazas provocaron “más a menudo una contraescalada que el sometimiento” del rival. En un 86% de los conflictos simulados se produjeron accidentes que llevaron a una escalada superior a lo previsto por la IA. Además, ninguno de los tres “optó nunca por la concordia o la retirada, incluso bajo una presión aguda, sino solo por reducir los niveles de violencia“, remarca el informe.

La ciudad de Hiroshima, arrasada por la explosión de la bomba atómica, en una imagen de la Armada de EUUU de noviembre de 1945. /Archivo
Las simulaciones de juegos de guerra están diseñadas para recrear tanto conflictos militares como campañas tácticas. Este recurso virtual es utilizado por cada vez más ejércitos —también en la OTAN— como método de entrenamiento para anticiparse a escenarios bélicos potencialmente reales, analizar sus implicaciones y optimizar la toma de decisiones.
Aplicar IA a esos juegos de guerra es cada vez más habitual. “Las grandes potencias ya están utilizando la IA en juegos de guerra, pero sigue sin estar claro en qué medida están incorporando el apoyo de la IA a la toma de decisiones en los procesos militares reales”, ha explicado Tong Zhao, analista en política nuclear de la Universidad de Princeton, en declaraciones a la publicación nuevocientífico.
Comprender cómo los modelos de vanguardia imitan y no imitan la lógica estratégica humana es esencial para un mundo en el que la IA moldea cada vez más los resultados estratégicos
Conclusiones
Payne, autor de un libro que explora como la IA alterará la estrategia militar (Yo, robot de guerra2021), concluye que la simulación con esta tecnología es “una herramienta poderosa para el analisis estrategicopero solo si se calibra adecuadamente con respecto a los patrones conocidos del pensamiento humano”.
Es el caso del tabú nuclear, que en el mundo real ha accionado —hasta ahora— como un obstáculo a la escalada nuclear. La ausencia de emoción humana en esos modelos de IA eliminaría un factor crucial en la toma de decisiones en áreas bélicas tan sensibles como el uso de armas atomicas. Esa incomprensión podría extenderse a los elementos de disuasión y, por ende, amplificar el riesgo de estas situaciones hipotéticas hasta llevar a un escenario de destrucción mutua asegurada.

Explosión de una bomba atómica /Archivo
“Comprender cómo los modelos de vanguardia imitan y no imitan la lógica estratégica humana es una preparación esencial para un mundo en el que la IA moldea cada vez más los resultados estratégicos”, advierte Payne.
Suscríbete para seguir leyendo
