Trump ordonne aux agences fédérales d'arrêter d'utiliser l'IA d'Anthropic

Le président américain Donald Trump a ordonné aux agences fédérales de cesser immédiatement d'utiliser l'IA Claude d'Anthropic, après le refus de l'entreprise d'autoriser son usage pour la surveillance de masse ou les armes autonomes. L'ordonnance prévoit une période de transition de six mois. Cette décision résulte des affrontements en cours entre Anthropic et le Département de la Défense sur les restrictions relatives à l'IA.

Le vendredi 27 février 2026, le président Donald Trump a annoncé via sa plateforme Truth Social qu'il instruisait toutes les agences fédérales d'« CESAR IMMÉDIATEMENT » l'utilisation des outils d'IA d'Anthropic. Il a qualifié l'entreprise de « SOCIÉTÉ RADICALE DE GAUCHE, WOKE » et a précisé une période de mise hors service de six mois pour des agences telles que le Département de la Défense. nnL'ordonnance fait suite à des semaines de tensions entre Anthropic et des responsables gouvernementaux concernant les applications militaires de l'intelligence artificielle. L'IA Claude d'Anthropic est largement utilisée au Pentagone, y compris dans des systèmes classifiés. L'administration Trump a poussé à son utilisation pour « toute fin légale », mais le contrat d'Anthropic interdit son déploiement pour la surveillance domestique massive des Américains ou des systèmes d'armes offensives totalement autonomes sans intervention humaine. nnDébut de cette semaine, le secrétaire à la Défense Pete Hegseth a informé le PDG d'Anthropic, Dario Amodei, qu'il invoquerait des pouvoirs rarement utilisés pour contraindre la levée de ces restrictions ou désigner l'entreprise comme un risque pour la chaîne d'approvisionnement, ce qui pourrait interdire son utilisation par le gouvernement et les sous-traitants de la défense. Hegseth a fixé un délai d'exécution au vendredi. nnEn réponse, Amodei a déclaré que l'entreprise, fondée avec un accent sur la sécurité de l'IA, « ne peut pas en toute conscience accéder à [la demande du Pentagone] ». Il a exprimé des préoccupations selon lesquelles une IA puissante pourrait permettre une surveillance de masse en assemblant des données éparpillées en profils complets de la vie des individus à grande échelle. nnMichael Pastor, doyen des programmes de droit technologique à la New York Law School, a noté qu'Anthropic est justifié de chercher une clarification sur les « fins licites », ajoutant que le refus de préciser sur la surveillance soulève des préoccupations légitimes. nnLa position d'Anthropic s'aligne sur des politiques similaires dans d'autres entreprises ; le PDG d'OpenAI, Sam Altman, aurait confirmé dans un mémo interne que son entreprise maintient les mêmes lignes rouges contre la surveillance de masse et les armes autonomes. Des employés de Google et OpenAI ont fait circuler une pétition exhortant leurs entreprises à soutenir la position d'Anthropic, mettant en garde contre la stratégie du Pentagone de diviser par la peur. nnClaude reste le système d'IA le plus largement utilisé par l'armée américaine, avec des alternatives potentielles incluant des outils d'OpenAI, Google ou xAI.

Articles connexes

President Trump signs executive order banning Anthropic AI in federal government amid military dispute, with symbolic AI restriction visuals.
Image générée par IA

Trump orders federal ban on Anthropic AI for government use

Rapporté par l'IA Image générée par IA

US President Donald Trump has directed all federal agencies to immediately cease using Anthropic's AI tools amid a dispute over military applications. The move follows weeks of clashes between Anthropic and Pentagon officials regarding restrictions on AI for mass surveillance and autonomous weapons. A six-month phase-out period has been announced.

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Rapporté par l'IA

Anthropic has filed a federal lawsuit against the US Department of Defense, challenging its recent label of the AI company as a supply-chain risk. The dispute stems from a contract disagreement over the use of Anthropic's Claude AI for military purposes, including restrictions on mass surveillance and autonomous weapons. The company argues the designation violates free speech and due process rights.

Anthropic's Claude AI app has hit the top spot on Apple's App Store free apps chart, overtaking ChatGPT and Gemini, fueled by public support following President Trump's federal ban on the tool over Anthropic's AI safety refusals.

Rapporté par l'IA

A federal judge in San Francisco issued a preliminary injunction on March 27, 2026, blocking the Trump administration's designation of AI company Anthropic as a military supply chain risk—a label applied three weeks earlier amid disputes over the firm's limits on its Claude AI models for military uses like autonomous weapons.

Anthropic has limited access to its Claude Mythos Preview AI model due to its superior ability to detect and exploit software vulnerabilities, while launching Project Glasswing—a consortium with over 45 tech firms including Apple, Google, and Microsoft—to collaboratively patch flaws and bolster defenses. The announcement follows recent data leaks at the firm.

Rapporté par l'IA

Artificial intelligence (AI) has emerged at the center of modern warfare, playing an operational support role in the recent U.S.-Israeli strike on Iran. Anthropic's Claude and Palantir's Gotham were used for intelligence assessments and target identification. Experts predict further expansion of AI in military applications.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser