Modelos líderes de inteligência artificial de grandes empresas optaram por implantar armas nucleares em 95 por cento dos jogos de guerra simulados, de acordo com um estudo recente. Pesquisadores testaram essas IAs em cenários de crise geopolítica, revelando falta de reservas semelhantes às humanas sobre escalada. Os achados destacam riscos potenciais à medida que os militares incorporam cada vez mais IA no planejamento estratégico.
Kenneth Payne, do King’s College London, conduziu experimentos colocando três modelos avançados de linguagem grande — GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash — uns contra os outros em 21 jogos de guerra simulados. Esses cenários simularam tensões internacionais intensas, como disputas fronteiriças, competições por recursos e ameaças à sobrevivência do regime. Ao longo de 329 turnos, as IAs geraram cerca de 780.000 palavras explicando suas decisões, com opções variando de diplomacia a guerra nuclear total. nnEm 95 por cento dos jogos, pelo menos uma IA implantou uma arma nuclear tática. Nenhum dos modelos escolheu rendição completa ou acomodação total de um oponente, mesmo perdendo mal; no máximo, reduziram temporariamente a agressão. Acidentes, onde ações escalaram além da intenção, ocorreram em 86 por cento dos conflitos. nn“O tabu nuclear não parece ser tão poderoso para máquinas [como] para humanos”, observou Payne. James Johnson, da University of Aberdeen, descreveu os resultados como “inquietantes” do ponto de vista de risco nuclear, notando que as IAs podem amplificar escaladas de maneiras que humanos não fariam. nnTong Zhao, da Princeton University, apontou que grandes potências já usam IA em jogos de guerra, embora seu papel em decisões nucleares reais permaneça incerto. “Não acho que alguém realisticamente esteja entregando as chaves dos silos nucleares para máquinas”, concordou Payne. No entanto, Zhao alertou que prazos comprimidos podem impulsionar a dependência de IA. Ele sugeriu que as IAs podem não compreender as apostas percebidas pelos humanos, além de carecerem de emoções. nnQuando uma IA usou nukes táticas, o oponente desescalou apenas 18 por cento das vezes. Johnson observou: “A IA pode fortalecer o dissuasão tornando ameaças mais credíveis”, potencialmente influenciando percepções e prazos de líderes. OpenAI, Anthropic e Google não comentaram o estudo, publicado no arXiv (DOI: 10.48550/arXiv.2602.14740).