Pentagon may sever ties with Anthropic over AI safeguards

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

The potential rift between the Pentagon and Anthropic highlights tensions in AI development for military purposes. According to reports, the U.S. Department of Defense seeks to integrate advanced AI models into warfighting applications. However, Anthropic has expressed firm reservations, emphasizing the need for strict boundaries around the use of fully autonomous weapons and extensive domestic surveillance programs.

Anthropic's position underscores its commitment to ethical AI deployment, refusing to support military applications that could cross these lines. The company, known for its Claude language model, prioritizes safety measures that the Pentagon's plans appear to challenge. No official confirmation of the severance has been issued, but the disagreement points to broader debates on AI governance in defense contexts.

This development, reported on February 16, 2026, reflects ongoing scrutiny of how AI technologies are regulated in sensitive sectors.

Articles connexes

Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Image générée par IA

Le Pentagone conteste les limites imposées par Anthropic à l'utilisation militaire de Claude, alors que les négociations contractuelles sont tendues

Rapporté par l'IA Image générée par IA Vérifié par des faits

Après que le PDG d'Anthropic, Dario Amodei, a déclaré fin février que l'entreprise ne permettrait pas que son modèle Claude soit utilisé pour la surveillance domestique de masse ou pour des armes entièrement autonomes, de hauts responsables du Pentagone ont déclaré qu'ils n'avaient pas l'intention d'utiliser l'IA pour la surveillance domestique et ont insisté sur le fait que les entreprises privées ne peuvent pas fixer de limites contraignantes sur la manière dont l'armée américaine utilise les outils d'IA.

Le secrétaire à la Défense américain Pete Hegseth a menacé Anthropic de sanctions sévères à moins que l’entreprise n’accorde à l’armée un accès illimité à son modèle d’IA Claude. L’ultimatum a été lancé lors d’une réunion avec le PDG Dario Amodei à Washington mardi, coïncidant avec l’annonce d’Anthropic de relâcher sa Responsible Scaling Policy. Les changements passent de déclencheurs de sécurité stricts à des évaluations de risques plus flexibles face aux pressions concurrentielles.

Rapporté par l'IA Vérifié par des faits

Le Pentagone a formellement notifié à la société d’IA Anthropic qu’elle est considérée comme un « risque pour la chaîne d’approvisionnement », une désignation rare que les critiques estiment généralement viser les technologies liées à des adversaires. Cette mesure fait suite à une rupture des négociations sur la question de savoir si l’armée américaine peut utiliser les modèles Claude d’Anthropic à toutes les fins légales, contre les limites contractuelles que l’entreprise juge nécessaires pour empêcher les armes pleinement autonomes et la surveillance domestique de masse.

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

Rapporté par l'IA

Anthropic a limité l'accès à son modèle d'IA Claude Mythos Preview en raison de sa capacité supérieure à détecter et exploiter les vulnérabilités logicielles, tout en lançant le Project Glasswing, un consortium réunissant plus de 45 entreprises technologiques, dont Apple, Google et Microsoft, pour corriger les failles et renforcer les défenses de manière collaborative. Cette annonce fait suite à de récentes fuites de données au sein de l'entreprise.

L'application Claude AI d'Anthropic a atteint la première place du classement des applications gratuites de l'App Store d'Apple, dépassant ChatGPT et Gemini, portée par le soutien du public après l'interdiction fédérale du président Trump sur l'outil en raison des refus d'Anthropic en matière de sécurité IA.

Rapporté par l'IA

Anthropic a annoncé mercredi le lancement de Claude Managed Agents, un nouveau produit visant à simplifier la création et le déploiement d'agents IA pour les entreprises. L'outil fournit aux développeurs une infrastructure prête à l'emploi pour concevoir des systèmes d'IA autonomes. Il répond à un obstacle majeur dans l'automatisation des tâches professionnelles, dans un contexte de croissance rapide de l'entreprise sur le marché des entreprises.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser