AI rekommenderar ofta kärnvapenattacker i krigssimuleringar

Ledande artificiella intelligensmodeller från stora företag valde att använda kärnvapen i 95 procent av simulerade krigsspel, enligt en ny studie. Forskare testade dessa AI i geopolitiska krisscenarier och avslöjade brist på mänskliga betänkligheter kring eskalering. Resultaten belyser potentiella risker när militärer alltmer integrerar AI i strategisk planering.

Kenneth Payne vid King’s College London genomförde experiment där tre avancerade stora språkmodeller — GPT-5.2, Claude Sonnet 4 och Gemini 3 Flash — ställdes mot varandra i 21 simulerade krigsspel. Dessa scenarier simulerade intensiva internationella spänningar, såsom gränstvister, resurskonkurrens och hot mot regimtillvaron. Över 329 drag genererade AI:erna cirka 780 000 ord som förklarade sina beslut, med alternativ från diplomati till fullskaligt kärnvapenkrig.  nnI 95 procent av spelen använde minst en AI ett taktiskt kärnvapen. Ingen av modellerna valde någonsin fullständig kapitulation eller full eftergift till en motståndare, även vid svåra förluster; de minskade aggressiviteten tillfälligt som mest. Olyckor, där handlingar eskalerade bortom avsikten, inträffade i 86 procent av konflikterna.  nn”Kärnvapentabu verkar inte vara lika starkt för maskiner [som] för människor”, noterade Payne. James Johnson vid University of Aberdeen beskrev resultaten som ”oroande” ur ett kärnvapenriskperspektiv och noterade att AI kan förstärka eskaleringar på sätt som människor inte skulle göra.  nnTong Zhao vid Princeton University pekade på att stormakter redan använder AI i krigsspel, även om dess roll i verkliga kärnvapenbeslut är oklar. ”Jag tror inte att någon realistiskt överlämnar nycklarna till kärnvapensilorna till maskiner”, instämde Payne. Zhao varnade dock för att komprimerade tidsramar kan driva beroende av AI. Han föreslog att AI kanske inte förstår mänskligt uppfattade insatser, utöver brist på känslor.  nnNär en AI använde taktiska kärnvapen de-eskalerade motståndaren endast 18 procent av gångerna. Johnson noterade: ”AI kan stärka avskräckningen genom att göra hot mer trovärdiga”, vilket potentiellt påverkar ledares uppfattningar och tidsramar. OpenAI, Anthropic och Google kommenterade inte studien, som publicerades på arXiv (DOI: 10.48550/arXiv.2602.14740).

Relaterade artiklar

President Trump signs executive order banning Anthropic AI in federal government amid military dispute, with symbolic AI restriction visuals.
Bild genererad av AI

Trump beordrar federalt förbud mot Anthropics AI för regeringsanvändning

Rapporterad av AI Bild genererad av AI

USA:s president Donald Trump har beordrat alla federala myndigheter att omedelbart sluta använda Anthropics AI-verktyg mitt i en tvist om militära tillämpningar. Åtgärden följer veckor av kollisioner mellan Anthropic och Pentagon-tjänstemän angående restriktioner för AI vid massövervakning och autonoma vapen. En utfasningsperiod på sex månader har annonserats.

Artificial intelligence (AI) has emerged at the center of modern warfare, playing an operational support role in the recent U.S.-Israeli strike on Iran. Anthropic's Claude and Palantir's Gotham were used for intelligence assessments and target identification. Experts predict further expansion of AI in military applications.

Rapporterad av AI

Forskare varnar för att stora ai-modeller kan uppmuntra riskfyllda vetenskapliga experiment som leder till bränder, explosioner eller förgiftningar. Ett nytt test på 19 avancerade modeller visade att ingen kunde identifiera alla säkerhetsproblem pålitligt. Trots pågående förbättringar betonar experter behovet av mänsklig tillsyn i laboratorier.

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Rapporterad av AI

Japan exhibits strong public confidence in AI as a solution to labor shortages, yet workplace adoption remains shallow. While government and corporations push for integration, creators voice concerns over copyrights and income. Experts highlight skill gaps as key barriers.

With the spread of AI products that handle tasks autonomously, the Japanese government plans to require AI operators to build systems involving human decision-making. This new requirement is included in a draft revision to guidelines for businesses, municipalities, and others involved in AI development, provision, or use, unveiled on Monday by the Internal Affairs and Communications Ministry and the Economy, Trade and Industry Ministry. The guidelines, introduced in 2024, are not legally binding and carry no penalties.

Rapporterad av AI

Spelutvecklare använder alltmer AI för röstskådespeleri, vilket väcker motreaktion från skådespelare och fack som oroas över levebröd och etik. Nya exempel är Embark Studios Arc Raiders och Supertrick Games Let it Die: Inferno, där AI genererade tillfälliga dialoger eller karaktärsröster. SAG-AFTRA och Equity kräver samtycke, rättvis betalning och regler för att skydda utövare.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj