Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Image générée par IA

Pentagone presse Anthropic d’affaiblir ses engagements de sécurité IA

Image générée par IA

Le secrétaire à la Défense américain Pete Hegseth a menacé Anthropic de sanctions sévères à moins que l’entreprise n’accorde à l’armée un accès illimité à son modèle d’IA Claude. L’ultimatum a été lancé lors d’une réunion avec le PDG Dario Amodei à Washington mardi, coïncidant avec l’annonce d’Anthropic de relâcher sa Responsible Scaling Policy. Les changements passent de déclencheurs de sécurité stricts à des évaluations de risques plus flexibles face aux pressions concurrentielles.

Le 25 février 2026, le secrétaire à la Défense américain Pete Hegseth a convoqué le PDG d’Anthropic, Dario Amodei, à Washington pour discuter des politiques d’utilisation de l’IA de l’entreprise. Hegseth a exigé qu’Anthropic autorise son modèle Claude pour toutes les applications militaires légales, y compris des domaines potentiellement sensibles comme la surveillance de masse et des missions létales sans supervision humaine directe. Anthropic a exprimé des préoccupations sur la fiabilité des modèles d’IA actuels pour de tels usages, proposant plutôt d’appliquer ses politiques d’utilisation standard aux contrats gouvernementaux tout en interdisant des applications comme les armes autonomes ou la surveillance domestique sans intervention humaine. Hegseth a fixé une échéance au vendredi 27 février, avertissant que le non-respect pourrait entraîner l’invocation du Defense Production Act, la désignation d’Anthropic comme risque pour la chaîne d’approvisionnement et l’exclusion des contrats du Département de la Défense. L’entreprise détient un contrat de 200 millions de dollars avec le Pentagone, et Claude a été utilisé dans des opérations classifiées, comme la capture du leader vénézuélien Nicolás Maduro en janvier 2026 en collaboration avec Palantir. Le même jour, Anthropic a annoncé des modifications à sa Responsible Scaling Policy, s’éloignant d’engagements fermes pour arrêter l’entraînement de modèles sauf si la sécurité pouvait être garantie à l’avance. La politique mise à jour adopte une approche relative, mettant l’accent sur les rapports de risques et les feuilles de route de sécurité frontalière pour plus de transparence. Anthropic a cité un « problème d’action collective » dans le paysage concurrentiel de l’IA, notant que des pauses unilatérales désavantageraient les développeurs responsables tandis que d’autres avancent sans mesures d’atténuation. Le directeur scientifique Jared Kaplan a déclaré : « Nous pensions que cela n’aiderait personne si nous arrêtions d’entraîner des modèles d’IA », soulignant le rythme rapide des progrès de l’industrie. Chris Painter de METR a qualifié le changement d’intelligible mais a mis en garde contre un effet potentiel de « grenouille bouillante », où des mesures de sécurité flexibles pourraient s’éroder avec le temps. Anthropic affirme engager des discussions de bonne foi pour soutenir la sécurité nationale de manière responsable. Le Pentagone négocie également avec des rivaux comme OpenAI, Google et xAI pour intégrer leurs technologies dans les systèmes militaires.

Ce que les gens disent

Les utilisateurs de X expriment principalement de l’alarme et des critiques envers l’ultimatum du secrétaire à la Défense Pete Hegseth à Anthropic, soutenant les garde-fous de l’entreprise contre l’IA pour les armes autonomes et la surveillance de masse. Les publications à fort engagement détaillent les menaces d’invocation du Defense Production Act et notent le timing avec la détente de la Responsible Scaling Policy d’Anthropic. Les sentiments incluent l’indignation face à la pression gouvernementale, le scepticisme sur les engagements de sécurité et des reportages neutres de journalistes.

Articles connexes

President Trump signs executive order banning Anthropic AI from federal agencies amid Pentagon dispute, illustrated with banned AI screens, Pentagon, and courthouse symbols.
Image générée par IA

Trump orders US agencies to halt use of Anthropic AI technology

Rapporté par l'IA Image générée par IA

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Le PDG d'Anthropic, Dario Amodei, a déclaré que l'entreprise ne se pliera pas à la demande du Pentagone de supprimer les garde-fous de ses modèles d'IA, malgré les menaces d'exclusion des systèmes de défense. Le différend porte sur la prévention de l'utilisation de l'IA dans des armes autonomes et la surveillance intérieure. L'entreprise, qui dispose d'un contrat de 200 millions de dollars avec le Département de la Défense, souligne son engagement envers une utilisation éthique de l'IA.

Rapporté par l'IA

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Anthropic a étendu sa capacité de mémoire au niveau gratuit de son chatbot IA Claude, permettant aux utilisateurs de référencer des conversations passées. L’entreprise a également publié un outil pour importer des souvenirs de chatbots concurrents comme ChatGPT et Gemini. Cette mise à jour coïncide avec la montée en popularité de Claude au milieu d’un différend avec le Département de la Défense des États-Unis.

Rapporté par l'IA

Anthropic a lancé un plugin juridique pour son outil Claude Cowork, suscitant des inquiétudes parmi les fournisseurs d'IA juridique dédiés. Le plugin offre des fonctionnalités utiles pour l'examen des contrats et la conformité, mais reste en deçà du remplacement des plateformes spécialisées. Les entreprises sud-africaines font face à des obstacles supplémentaires en raison des réglementations sur la protection des données.

Le serveur Git MCP officiel d'Anthropic contenait des vulnérabilités de sécurité inquiétantes qui pouvaient être enchaînées pour des impacts graves. Ces problèmes ont été mis en lumière dans un rapport récent de TechRadar. Des détails sont apparus sur les risques potentiels pour l'infrastructure de l'entreprise d'IA.

Rapporté par l'IA

La récente mise à jour de la plateforme CoWork d'Anthropic a entraîné des réactions marquées sur le marché dans l'industrie logicielle. Le secteur logiciel américain a connu une vente massive généralisée, perdant plus de 1 000 milliards de dollars de valeur, selon Fortune. Ce développement met en lumière l'incertitude des investisseurs quant aux workflows natifs IA et leur impact sur les actions SaaS.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser