Le secrétaire à la Défense américain Pete Hegseth a menacé Anthropic de sanctions sévères à moins que l’entreprise n’accorde à l’armée un accès illimité à son modèle d’IA Claude. L’ultimatum a été lancé lors d’une réunion avec le PDG Dario Amodei à Washington mardi, coïncidant avec l’annonce d’Anthropic de relâcher sa Responsible Scaling Policy. Les changements passent de déclencheurs de sécurité stricts à des évaluations de risques plus flexibles face aux pressions concurrentielles.
Le 25 février 2026, le secrétaire à la Défense américain Pete Hegseth a convoqué le PDG d’Anthropic, Dario Amodei, à Washington pour discuter des politiques d’utilisation de l’IA de l’entreprise. Hegseth a exigé qu’Anthropic autorise son modèle Claude pour toutes les applications militaires légales, y compris des domaines potentiellement sensibles comme la surveillance de masse et des missions létales sans supervision humaine directe. Anthropic a exprimé des préoccupations sur la fiabilité des modèles d’IA actuels pour de tels usages, proposant plutôt d’appliquer ses politiques d’utilisation standard aux contrats gouvernementaux tout en interdisant des applications comme les armes autonomes ou la surveillance domestique sans intervention humaine. Hegseth a fixé une échéance au vendredi 27 février, avertissant que le non-respect pourrait entraîner l’invocation du Defense Production Act, la désignation d’Anthropic comme risque pour la chaîne d’approvisionnement et l’exclusion des contrats du Département de la Défense. L’entreprise détient un contrat de 200 millions de dollars avec le Pentagone, et Claude a été utilisé dans des opérations classifiées, comme la capture du leader vénézuélien Nicolás Maduro en janvier 2026 en collaboration avec Palantir. Le même jour, Anthropic a annoncé des modifications à sa Responsible Scaling Policy, s’éloignant d’engagements fermes pour arrêter l’entraînement de modèles sauf si la sécurité pouvait être garantie à l’avance. La politique mise à jour adopte une approche relative, mettant l’accent sur les rapports de risques et les feuilles de route de sécurité frontalière pour plus de transparence. Anthropic a cité un « problème d’action collective » dans le paysage concurrentiel de l’IA, notant que des pauses unilatérales désavantageraient les développeurs responsables tandis que d’autres avancent sans mesures d’atténuation. Le directeur scientifique Jared Kaplan a déclaré : « Nous pensions que cela n’aiderait personne si nous arrêtions d’entraîner des modèles d’IA », soulignant le rythme rapide des progrès de l’industrie. Chris Painter de METR a qualifié le changement d’intelligible mais a mis en garde contre un effet potentiel de « grenouille bouillante », où des mesures de sécurité flexibles pourraient s’éroder avec le temps. Anthropic affirme engager des discussions de bonne foi pour soutenir la sécurité nationale de manière responsable. Le Pentagone négocie également avec des rivaux comme OpenAI, Google et xAI pour intégrer leurs technologies dans les systèmes militaires.