Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Image générée par IA

Pentagone presse Anthropic d’affaiblir ses engagements de sécurité IA

Image générée par IA

Le secrétaire à la Défense américain Pete Hegseth a menacé Anthropic de sanctions sévères à moins que l’entreprise n’accorde à l’armée un accès illimité à son modèle d’IA Claude. L’ultimatum a été lancé lors d’une réunion avec le PDG Dario Amodei à Washington mardi, coïncidant avec l’annonce d’Anthropic de relâcher sa Responsible Scaling Policy. Les changements passent de déclencheurs de sécurité stricts à des évaluations de risques plus flexibles face aux pressions concurrentielles.

Le 25 février 2026, le secrétaire à la Défense américain Pete Hegseth a convoqué le PDG d’Anthropic, Dario Amodei, à Washington pour discuter des politiques d’utilisation de l’IA de l’entreprise. Hegseth a exigé qu’Anthropic autorise son modèle Claude pour toutes les applications militaires légales, y compris des domaines potentiellement sensibles comme la surveillance de masse et des missions létales sans supervision humaine directe. Anthropic a exprimé des préoccupations sur la fiabilité des modèles d’IA actuels pour de tels usages, proposant plutôt d’appliquer ses politiques d’utilisation standard aux contrats gouvernementaux tout en interdisant des applications comme les armes autonomes ou la surveillance domestique sans intervention humaine. Hegseth a fixé une échéance au vendredi 27 février, avertissant que le non-respect pourrait entraîner l’invocation du Defense Production Act, la désignation d’Anthropic comme risque pour la chaîne d’approvisionnement et l’exclusion des contrats du Département de la Défense. L’entreprise détient un contrat de 200 millions de dollars avec le Pentagone, et Claude a été utilisé dans des opérations classifiées, comme la capture du leader vénézuélien Nicolás Maduro en janvier 2026 en collaboration avec Palantir. Le même jour, Anthropic a annoncé des modifications à sa Responsible Scaling Policy, s’éloignant d’engagements fermes pour arrêter l’entraînement de modèles sauf si la sécurité pouvait être garantie à l’avance. La politique mise à jour adopte une approche relative, mettant l’accent sur les rapports de risques et les feuilles de route de sécurité frontalière pour plus de transparence. Anthropic a cité un « problème d’action collective » dans le paysage concurrentiel de l’IA, notant que des pauses unilatérales désavantageraient les développeurs responsables tandis que d’autres avancent sans mesures d’atténuation. Le directeur scientifique Jared Kaplan a déclaré : « Nous pensions que cela n’aiderait personne si nous arrêtions d’entraîner des modèles d’IA », soulignant le rythme rapide des progrès de l’industrie. Chris Painter de METR a qualifié le changement d’intelligible mais a mis en garde contre un effet potentiel de « grenouille bouillante », où des mesures de sécurité flexibles pourraient s’éroder avec le temps. Anthropic affirme engager des discussions de bonne foi pour soutenir la sécurité nationale de manière responsable. Le Pentagone négocie également avec des rivaux comme OpenAI, Google et xAI pour intégrer leurs technologies dans les systèmes militaires.

Ce que les gens disent

Les utilisateurs de X expriment principalement de l’alarme et des critiques envers l’ultimatum du secrétaire à la Défense Pete Hegseth à Anthropic, soutenant les garde-fous de l’entreprise contre l’IA pour les armes autonomes et la surveillance de masse. Les publications à fort engagement détaillent les menaces d’invocation du Defense Production Act et notent le timing avec la détente de la Responsible Scaling Policy d’Anthropic. Les sentiments incluent l’indignation face à la pression gouvernementale, le scepticisme sur les engagements de sécurité et des reportages neutres de journalistes.

Articles connexes

Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Image générée par IA

Pentagon disputes Anthropic limits on Claude’s military use as contract talks strain

Rapporté par l'IA Image générée par IA Vérifié par des faits

After Anthropic CEO Dario Amodei said in late February that the company would not allow its Claude model to be used for mass domestic surveillance or fully autonomous weapons, senior Pentagon officials said they have no intention of using AI for domestic surveillance and insist that private firms cannot set binding limits on how the U.S. military employs AI tools.

Anthropic's CEO Dario Amodei stated that the company will not comply with the Pentagon's request to remove safeguards from its AI models, despite threats of exclusion from defense systems. The dispute centers on preventing the AI's use in autonomous weapons and domestic surveillance. The firm, which has a $200 million contract with the Department of Defense, emphasizes its commitment to ethical AI use.

Rapporté par l'IA

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

Rapporté par l'IA

Anthropic has limited access to its Claude Mythos Preview AI model due to its superior ability to detect and exploit software vulnerabilities, while launching Project Glasswing—a consortium with over 45 tech firms including Apple, Google, and Microsoft—to collaboratively patch flaws and bolster defenses. The announcement follows recent data leaks at the firm.

Anthropic has announced that its AI chatbot Claude will remain free of advertisements, contrasting sharply with rival OpenAI's recent decision to test ads in ChatGPT. The company launched a Super Bowl ad campaign mocking AI assistants that interrupt conversations with product pitches. This move highlights growing tensions in the competitive AI landscape.

Rapporté par l'IA

Anthropic announced on Wednesday the launch of Claude Managed Agents, a new product aimed at simplifying the creation and deployment of AI agents for businesses. The tool provides developers with ready-made infrastructure to build autonomous AI systems. It addresses a key barrier in automating work tasks amid the company's rapid enterprise growth.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser