Trump ordonne aux agences fédérales d'arrêter d'utiliser l'IA d'Anthropic

Le président américain Donald Trump a ordonné aux agences fédérales de cesser immédiatement d'utiliser l'IA Claude d'Anthropic, après le refus de l'entreprise d'autoriser son usage pour la surveillance de masse ou les armes autonomes. L'ordonnance prévoit une période de transition de six mois. Cette décision résulte des affrontements en cours entre Anthropic et le Département de la Défense sur les restrictions relatives à l'IA.

Le vendredi 27 février 2026, le président Donald Trump a annoncé via sa plateforme Truth Social qu'il instruisait toutes les agences fédérales d'« CESAR IMMÉDIATEMENT » l'utilisation des outils d'IA d'Anthropic. Il a qualifié l'entreprise de « SOCIÉTÉ RADICALE DE GAUCHE, WOKE » et a précisé une période de mise hors service de six mois pour des agences telles que le Département de la Défense. nnL'ordonnance fait suite à des semaines de tensions entre Anthropic et des responsables gouvernementaux concernant les applications militaires de l'intelligence artificielle. L'IA Claude d'Anthropic est largement utilisée au Pentagone, y compris dans des systèmes classifiés. L'administration Trump a poussé à son utilisation pour « toute fin légale », mais le contrat d'Anthropic interdit son déploiement pour la surveillance domestique massive des Américains ou des systèmes d'armes offensives totalement autonomes sans intervention humaine. nnDébut de cette semaine, le secrétaire à la Défense Pete Hegseth a informé le PDG d'Anthropic, Dario Amodei, qu'il invoquerait des pouvoirs rarement utilisés pour contraindre la levée de ces restrictions ou désigner l'entreprise comme un risque pour la chaîne d'approvisionnement, ce qui pourrait interdire son utilisation par le gouvernement et les sous-traitants de la défense. Hegseth a fixé un délai d'exécution au vendredi. nnEn réponse, Amodei a déclaré que l'entreprise, fondée avec un accent sur la sécurité de l'IA, « ne peut pas en toute conscience accéder à [la demande du Pentagone] ». Il a exprimé des préoccupations selon lesquelles une IA puissante pourrait permettre une surveillance de masse en assemblant des données éparpillées en profils complets de la vie des individus à grande échelle. nnMichael Pastor, doyen des programmes de droit technologique à la New York Law School, a noté qu'Anthropic est justifié de chercher une clarification sur les « fins licites », ajoutant que le refus de préciser sur la surveillance soulève des préoccupations légitimes. nnLa position d'Anthropic s'aligne sur des politiques similaires dans d'autres entreprises ; le PDG d'OpenAI, Sam Altman, aurait confirmé dans un mémo interne que son entreprise maintient les mêmes lignes rouges contre la surveillance de masse et les armes autonomes. Des employés de Google et OpenAI ont fait circuler une pétition exhortant leurs entreprises à soutenir la position d'Anthropic, mettant en garde contre la stratégie du Pentagone de diviser par la peur. nnClaude reste le système d'IA le plus largement utilisé par l'armée américaine, avec des alternatives potentielles incluant des outils d'OpenAI, Google ou xAI.

Articles connexes

President Trump signs executive order banning Anthropic AI in federal government amid military dispute, with symbolic AI restriction visuals.
Image générée par IA

Trump ordonne l'interdiction fédérale de l'IA d'Anthropic pour usage gouvernemental

Rapporté par l'IA Image générée par IA

Le président américain Donald Trump a ordonné à toutes les agences fédérales de cesser immédiatement d'utiliser les outils d'IA d'Anthropic au milieu d'un différend sur les applications militaires. Cette mesure fait suite à des semaines de clashes entre Anthropic et des responsables du Pentagone concernant les restrictions sur l'IA pour la surveillance de masse et les armes autonomes. Une période de transition de six mois a été annoncée.

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Rapporté par l'IA

Anthropic a déposé une plainte fédérale contre le département de la Défense des États-Unis, contestant son étiquetage récent de l'entreprise d'IA comme un risque pour la chaîne d'approvisionnement. Le différend provient d'un désaccord contractuel sur l'utilisation de l'IA Claude d'Anthropic à des fins militaires, incluant des restrictions sur la surveillance de masse et les armes autonomes. L'entreprise affirme que cette désignation viole les droits à la liberté d'expression et aux garanties procédurales.

L'application Claude AI d'Anthropic a atteint la première place du classement des applications gratuites de l'App Store d'Apple, dépassant ChatGPT et Gemini, portée par le soutien du public après l'interdiction fédérale du président Trump sur l'outil en raison des refus d'Anthropic en matière de sécurité IA.

Rapporté par l'IA

Une juge fédérale de San Francisco a émis une injonction préliminaire le 27 mars 2026, bloquant la désignation par l'administration Trump de l'entreprise d'IA Anthropic comme risque pour la chaîne d'approvisionnement militaire—un label appliqué trois semaines plus tôt dans un contexte de désaccords sur les limites imposées par l'entreprise aux capacités de son IA Claude pour des usages militaires tels que les armes autonomes.

Anthropic a limité l'accès à son modèle d'IA Claude Mythos Preview en raison de sa capacité supérieure à détecter et exploiter les vulnérabilités logicielles, tout en lançant le Project Glasswing, un consortium réunissant plus de 45 entreprises technologiques, dont Apple, Google et Microsoft, pour corriger les failles et renforcer les défenses de manière collaborative. Cette annonce fait suite à de récentes fuites de données au sein de l'entreprise.

Rapporté par l'IA

Artificial intelligence (AI) has emerged at the center of modern warfare, playing an operational support role in the recent U.S.-Israeli strike on Iran. Anthropic's Claude and Palantir's Gotham were used for intelligence assessments and target identification. Experts predict further expansion of AI in military applications.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser