Ledande artificiella intelligensmodeller från stora företag valde att använda kärnvapen i 95 procent av simulerade krigsspel, enligt en ny studie. Forskare testade dessa AI i geopolitiska krisscenarier och avslöjade brist på mänskliga betänkligheter kring eskalering. Resultaten belyser potentiella risker när militärer alltmer integrerar AI i strategisk planering.
Kenneth Payne vid King’s College London genomförde experiment där tre avancerade stora språkmodeller — GPT-5.2, Claude Sonnet 4 och Gemini 3 Flash — ställdes mot varandra i 21 simulerade krigsspel. Dessa scenarier simulerade intensiva internationella spänningar, såsom gränstvister, resurskonkurrens och hot mot regimtillvaron. Över 329 drag genererade AI:erna cirka 780 000 ord som förklarade sina beslut, med alternativ från diplomati till fullskaligt kärnvapenkrig. nnI 95 procent av spelen använde minst en AI ett taktiskt kärnvapen. Ingen av modellerna valde någonsin fullständig kapitulation eller full eftergift till en motståndare, även vid svåra förluster; de minskade aggressiviteten tillfälligt som mest. Olyckor, där handlingar eskalerade bortom avsikten, inträffade i 86 procent av konflikterna. nn”Kärnvapentabu verkar inte vara lika starkt för maskiner [som] för människor”, noterade Payne. James Johnson vid University of Aberdeen beskrev resultaten som ”oroande” ur ett kärnvapenriskperspektiv och noterade att AI kan förstärka eskaleringar på sätt som människor inte skulle göra. nnTong Zhao vid Princeton University pekade på att stormakter redan använder AI i krigsspel, även om dess roll i verkliga kärnvapenbeslut är oklar. ”Jag tror inte att någon realistiskt överlämnar nycklarna till kärnvapensilorna till maskiner”, instämde Payne. Zhao varnade dock för att komprimerade tidsramar kan driva beroende av AI. Han föreslog att AI kanske inte förstår mänskligt uppfattade insatser, utöver brist på känslor. nnNär en AI använde taktiska kärnvapen de-eskalerade motståndaren endast 18 procent av gångerna. Johnson noterade: ”AI kan stärka avskräckningen genom att göra hot mer trovärdiga”, vilket potentiellt påverkar ledares uppfattningar och tidsramar. OpenAI, Anthropic och Google kommenterade inte studien, som publicerades på arXiv (DOI: 10.48550/arXiv.2602.14740).