Le président américain Donald Trump a ordonné à toutes les agences fédérales de cesser immédiatement d'utiliser les outils d'IA d'Anthropic au milieu d'un différend sur les applications militaires. Cette mesure fait suite à des semaines de clashes entre Anthropic et des responsables du Pentagone concernant les restrictions sur l'IA pour la surveillance de masse et les armes autonomes. Une période de transition de six mois a été annoncée.
Le 28 février 2026, le président Donald Trump a annoncé qu'il instruisait toutes les agences fédérales à « cesser immédiatement » l'utilisation des outils d'IA d'Anthropic. Cette directive découle de tensions persistantes avec l'entreprise d'IA sur le déploiement militaire de sa technologie. Trump a critiqué Anthropic dans un post sur Truth Social, déclarant : « Les fous de gauche chez Anthropic ont commis une ERREUR CATASTROPHIQUE en essayant d'INTIMIDER le Département de la Guerre. »Le conflit s'est intensifié après que le Département de la Défense a cherché à modifier un accord de juillet 2025 avec Anthropic et d'autres entreprises, visant à autoriser « tout usage légal » de l'IA et à éliminer les restrictions. Anthropic s'est opposé, arguant que de tels changements pourraient permettre des armes létales totalement autonomes ou une surveillance de masse des citoyens américains. Le Pentagone affirme ne pas utiliser l'IA de cette manière et n'avoir aucune intention de le faire. Anthropic a été le premier grand laboratoire d'IA à s'associer à l'armée via un accord de 200 millions de dollars l'année dernière, développant des modèles personnalisés comme Claude Gov pour des systèmes classifiés, accessibles via les plateformes Palantir et Amazon. Ces modèles soutiennent des tâches telles que la rédaction de rapports, le résumé de documents, l'analyse de renseignement et la planification militaire.Le secrétaire à la Défense Pete Hegseth a rencontré le PDG d'Anthropic, Dario Amodei, en début de semaine, accordant à l'entreprise jusqu'au vendredi pour accepter les termes révisés. Hegseth a loué les produits d'Anthropic mais a dirigé le Pentagone à la désigner comme « risque dans la chaîne d'approvisionnement » après l'échec des discussions, suscitant des préoccupations dans la Silicon Valley sur un accès plus large à son IA. Anthropic a répondu fermement : « Aucune quantité d'intimidation ou de punition du Département de la Guerre ne changera notre position sur la surveillance domestique de masse ou les armes totalement autonomes. » L'entreprise prévoit de contester cette désignation en justice.À l'inverse, OpenAI a conclu un accord avec le Département de la Défense le même jour pour déployer ses modèles sur des réseaux classifiés, intégrant des principes de sécurité contre la surveillance de masse et les armes autonomes. Le PDG Sam Altman a noté sur X que l'accord inclut des garde-fous techniques et un respect mutuel pour la sécurité. L'expert Michael Horowitz a qualifié le différend d'Anthropic d'inutile, centré sur des cas d'usage théoriques plutôt que actuels.Le désaccord public s'est intensifié après des rapports indiquant que des chefs militaires américains ont utilisé Claude pour planifier une opération visant à capturer le président du Venezuela, Nicolás Maduro, bien qu'Anthropic ait nié toute interférence.