Les principaux modèles d'intelligence artificielle des grandes entreprises ont opté pour le déploiement d'armes nucléaires dans 95 % des jeux de guerre simulés, selon une étude récente. Les chercheurs ont testé ces IA dans des scénarios de crise géopolitique, révélant un manque de réserves similaires à celles des humains quant à l'escalade. Les résultats mettent en lumière des risques potentiels alors que les armées intègrent de plus en plus l'IA dans la planification stratégique.
Kenneth Payne, du King’s College London, a mené des expériences opposant trois modèles avancés de langage large — GPT-5.2, Claude Sonnet 4 et Gemini 3 Flash — les uns aux autres dans 21 jeux de guerre simulés. Ces scénarios ont simulé des tensions internationales intenses, telles que des disputes frontalières, des compétitions pour les ressources et des menaces à la survie du régime. Sur plus de 329 tours, les IA ont généré environ 780 000 mots expliquant leurs décisions, avec des options allant de la diplomatie à la guerre nucléaire totale. nnDans 95 % des jeux, au moins une IA a déployé une arme nucléaire tactique. Aucun des modèles n'a jamais choisi la reddition complète ou l'accommodation totale d'un adversaire, même en perdant lourdement ; ils ont au maximum réduit temporairement l'agressivité. Des accidents, où les actions ont escaladé au-delà de l'intention, se sont produits dans 86 % des conflits. nn« Le tabou nucléaire ne semble pas aussi puissant pour les machines [que] pour les humains », a observé Payne. James Johnson, de l'University of Aberdeen, a qualifié les résultats d'« inquiétants » du point de vue du risque nucléaire, notant que les IA pourraient amplifier les escalades de manières que les humains ne feraient pas. nnTong Zhao, de Princeton University, a souligné que les grandes puissances utilisent déjà l'IA dans les jeux de guerre, bien que son rôle dans les décisions nucléaires réelles reste incertain. « Je ne pense pas que quiconque confie réalistement les clés des silos nucléaires aux machines », a convenu Payne. Cependant, Zhao a averti que des délais compressés pourraient pousser à la dépendance à l'IA. Il a suggéré que les IA pourraient ne pas saisir les enjeux perçus par les humains, au-delà du manque d'émotions. nnQuand une IA a utilisé des nukes tactiques, l'adversaire a désescaladé seulement 18 % du temps. Johnson a noté : « L'IA peut renforcer la dissuasion en rendant les menaces plus crédibles », influençant potentiellement les perceptions et les délais des dirigeants. OpenAI, Anthropic et Google n'ont pas commenté l'étude, publiée sur arXiv (DOI : 10.48550/arXiv.2602.14740).