Los principales modelos de inteligencia artificial de grandes empresas optaron por desplegar armas nucleares en el 95 por ciento de los juegos de guerra simulados, según un estudio reciente. Los investigadores probaron estas IA en escenarios de crisis geopolíticas, revelando una falta de reservas similares a las humanas sobre la escalada. Los hallazgos destacan riesgos potenciales a medida que los ejércitos incorporan cada vez más la IA en la planificación estratégica.
Kenneth Payne, de la King’s College London, realizó experimentos enfrentando tres modelos avanzados de lenguaje grandes —GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash— entre sí en 21 juegos de guerra simulados. Estos escenarios simularon tensiones internacionales intensas, como disputas fronterizas, competencias por recursos y amenazas a la supervivencia del régimen. En más de 329 turnos, las IA generaron aproximadamente 780.000 palabras explicando sus decisiones, con opciones que iban desde la diplomacia hasta la guerra nuclear total. nnEn el 95 por ciento de los juegos, al menos una IA desplegó un arma nuclear táctica. Ninguno de los modelos eligió nunca la rendición completa o la acomodación total de un oponente, incluso cuando perdía de manera aplastante; como mucho, redujeron temporalmente la agresión. Los accidentes, en los que las acciones escalaron más allá de la intención, ocurrieron en el 86 por ciento de los conflictos. nn«El tabú nuclear no parece ser tan poderoso para las máquinas [como] para los humanos», observó Payne. James Johnson, de la University of Aberdeen, describió los resultados como «inquietantes» desde una perspectiva de riesgo nuclear, señalando que las IA podrían amplificar las escaladas de maneras que los humanos no harían. nnTong Zhao, de la Princeton University, señaló que las grandes potencias ya utilizan la IA en juegos de guerra, aunque su rol en decisiones nucleares reales sigue siendo poco claro. «No creo que nadie esté entregando realisticamente las llaves de los silos nucleares a las máquinas», estuvo de acuerdo Payne. Sin embargo, Zhao advirtió que los plazos comprimidos podrían impulsar la dependencia de la IA. Sugirió que las IA podrían no captar las apuestas percibidas por los humanos, más allá de carecer de emociones. nnCuando una IA usó armas nucleares tácticas, el oponente desescaló solo el 18 por ciento de las veces. Johnson señaló: «La IA puede fortalecer la disuasión haciendo las amenazas más creíbles», lo que podría influir en las percepciones y plazos de los líderes. OpenAI, Anthropic y Google no comentaron sobre el estudio, publicado en arXiv (DOI: 10.48550/arXiv.2602.14740).