Le président américain Donald Trump a ordonné aux agences fédérales de cesser immédiatement d'utiliser l'IA Claude d'Anthropic, après le refus de l'entreprise d'autoriser son usage pour la surveillance de masse ou les armes autonomes. L'ordonnance prévoit une période de transition de six mois. Cette décision résulte des affrontements en cours entre Anthropic et le Département de la Défense sur les restrictions relatives à l'IA.
Le vendredi 27 février 2026, le président Donald Trump a annoncé via sa plateforme Truth Social qu'il instruisait toutes les agences fédérales d'« CESAR IMMÉDIATEMENT » l'utilisation des outils d'IA d'Anthropic. Il a qualifié l'entreprise de « SOCIÉTÉ RADICALE DE GAUCHE, WOKE » et a précisé une période de mise hors service de six mois pour des agences telles que le Département de la Défense. nnL'ordonnance fait suite à des semaines de tensions entre Anthropic et des responsables gouvernementaux concernant les applications militaires de l'intelligence artificielle. L'IA Claude d'Anthropic est largement utilisée au Pentagone, y compris dans des systèmes classifiés. L'administration Trump a poussé à son utilisation pour « toute fin légale », mais le contrat d'Anthropic interdit son déploiement pour la surveillance domestique massive des Américains ou des systèmes d'armes offensives totalement autonomes sans intervention humaine. nnDébut de cette semaine, le secrétaire à la Défense Pete Hegseth a informé le PDG d'Anthropic, Dario Amodei, qu'il invoquerait des pouvoirs rarement utilisés pour contraindre la levée de ces restrictions ou désigner l'entreprise comme un risque pour la chaîne d'approvisionnement, ce qui pourrait interdire son utilisation par le gouvernement et les sous-traitants de la défense. Hegseth a fixé un délai d'exécution au vendredi. nnEn réponse, Amodei a déclaré que l'entreprise, fondée avec un accent sur la sécurité de l'IA, « ne peut pas en toute conscience accéder à [la demande du Pentagone] ». Il a exprimé des préoccupations selon lesquelles une IA puissante pourrait permettre une surveillance de masse en assemblant des données éparpillées en profils complets de la vie des individus à grande échelle. nnMichael Pastor, doyen des programmes de droit technologique à la New York Law School, a noté qu'Anthropic est justifié de chercher une clarification sur les « fins licites », ajoutant que le refus de préciser sur la surveillance soulève des préoccupations légitimes. nnLa position d'Anthropic s'aligne sur des politiques similaires dans d'autres entreprises ; le PDG d'OpenAI, Sam Altman, aurait confirmé dans un mémo interne que son entreprise maintient les mêmes lignes rouges contre la surveillance de masse et les armes autonomes. Des employés de Google et OpenAI ont fait circuler une pétition exhortant leurs entreprises à soutenir la position d'Anthropic, mettant en garde contre la stratégie du Pentagone de diviser par la peur. nnClaude reste le système d'IA le plus largement utilisé par l'armée américaine, avec des alternatives potentielles incluant des outils d'OpenAI, Google ou xAI.