Trump ordonne aux agences fédérales d'arrêter d'utiliser l'IA d'Anthropic

Le président américain Donald Trump a ordonné aux agences fédérales de cesser immédiatement d'utiliser l'IA Claude d'Anthropic, après le refus de l'entreprise d'autoriser son usage pour la surveillance de masse ou les armes autonomes. L'ordonnance prévoit une période de transition de six mois. Cette décision résulte des affrontements en cours entre Anthropic et le Département de la Défense sur les restrictions relatives à l'IA.

Le vendredi 27 février 2026, le président Donald Trump a annoncé via sa plateforme Truth Social qu'il instruisait toutes les agences fédérales d'« CESAR IMMÉDIATEMENT » l'utilisation des outils d'IA d'Anthropic. Il a qualifié l'entreprise de « SOCIÉTÉ RADICALE DE GAUCHE, WOKE » et a précisé une période de mise hors service de six mois pour des agences telles que le Département de la Défense. nnL'ordonnance fait suite à des semaines de tensions entre Anthropic et des responsables gouvernementaux concernant les applications militaires de l'intelligence artificielle. L'IA Claude d'Anthropic est largement utilisée au Pentagone, y compris dans des systèmes classifiés. L'administration Trump a poussé à son utilisation pour « toute fin légale », mais le contrat d'Anthropic interdit son déploiement pour la surveillance domestique massive des Américains ou des systèmes d'armes offensives totalement autonomes sans intervention humaine. nnDébut de cette semaine, le secrétaire à la Défense Pete Hegseth a informé le PDG d'Anthropic, Dario Amodei, qu'il invoquerait des pouvoirs rarement utilisés pour contraindre la levée de ces restrictions ou désigner l'entreprise comme un risque pour la chaîne d'approvisionnement, ce qui pourrait interdire son utilisation par le gouvernement et les sous-traitants de la défense. Hegseth a fixé un délai d'exécution au vendredi. nnEn réponse, Amodei a déclaré que l'entreprise, fondée avec un accent sur la sécurité de l'IA, « ne peut pas en toute conscience accéder à [la demande du Pentagone] ». Il a exprimé des préoccupations selon lesquelles une IA puissante pourrait permettre une surveillance de masse en assemblant des données éparpillées en profils complets de la vie des individus à grande échelle. nnMichael Pastor, doyen des programmes de droit technologique à la New York Law School, a noté qu'Anthropic est justifié de chercher une clarification sur les « fins licites », ajoutant que le refus de préciser sur la surveillance soulève des préoccupations légitimes. nnLa position d'Anthropic s'aligne sur des politiques similaires dans d'autres entreprises ; le PDG d'OpenAI, Sam Altman, aurait confirmé dans un mémo interne que son entreprise maintient les mêmes lignes rouges contre la surveillance de masse et les armes autonomes. Des employés de Google et OpenAI ont fait circuler une pétition exhortant leurs entreprises à soutenir la position d'Anthropic, mettant en garde contre la stratégie du Pentagone de diviser par la peur. nnClaude reste le système d'IA le plus largement utilisé par l'armée américaine, avec des alternatives potentielles incluant des outils d'OpenAI, Google ou xAI.

Articles connexes

President Trump signs executive order banning Anthropic AI in federal government amid military dispute, with symbolic AI restriction visuals.
Image générée par IA

Trump ordonne l'interdiction fédérale de l'IA d'Anthropic pour usage gouvernemental

Rapporté par l'IA Image générée par IA

Le président américain Donald Trump a ordonné à toutes les agences fédérales de cesser immédiatement d'utiliser les outils d'IA d'Anthropic au milieu d'un différend sur les applications militaires. Cette mesure fait suite à des semaines de clashes entre Anthropic et des responsables du Pentagone concernant les restrictions sur l'IA pour la surveillance de masse et les armes autonomes. Une période de transition de six mois a été annoncée.

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Rapporté par l'IA

Le secrétaire à la Défense américain Pete Hegseth a menacé Anthropic de sanctions sévères à moins que l’entreprise n’accorde à l’armée un accès illimité à son modèle d’IA Claude. L’ultimatum a été lancé lors d’une réunion avec le PDG Dario Amodei à Washington mardi, coïncidant avec l’annonce d’Anthropic de relâcher sa Responsible Scaling Policy. Les changements passent de déclencheurs de sécurité stricts à des évaluations de risques plus flexibles face aux pressions concurrentielles.

Anthropic a lancé un plugin juridique pour son outil Claude Cowork, suscitant des inquiétudes parmi les fournisseurs d'IA juridique dédiés. Le plugin offre des fonctionnalités utiles pour l'examen des contrats et la conformité, mais reste en deçà du remplacement des plateformes spécialisées. Les entreprises sud-africaines font face à des obstacles supplémentaires en raison des réglementations sur la protection des données.

Rapporté par l'IA

Le 5 février 2026, Anthropic et OpenAI ont lancé simultanément des produits faisant passer les utilisateurs de la discussion avec l’IA à la gestion d’équipes d’agents IA. Anthropic a introduit Claude Opus 4.6 avec des équipes d’agents pour les développeurs, tandis qu’OpenAI a dévoilé Frontier et GPT-5.3-Codex pour les flux de travail d’entreprise. Ces sorties coïncident avec une chute de 285 milliards de dollars des actions logicielles, sur fond de craintes que l’IA perturbe les fournisseurs SaaS traditionnels.

OpenAI réoriente ses ressources vers l'amélioration de son chatbot vedette ChatGPT, entraînant le départ de plusieurs chercheurs seniors. L'entreprise de San Francisco fait face à une concurrence intense de Google et Anthropic, provoquant un pivot stratégique loin de la recherche à long terme. Ce changement soulève des inquiétudes sur l'avenir de l'exploration innovante de l'IA au sein de la firme.

Rapporté par l'IA

Un commentaire de CNET soutient que décrire l’IA comme dotée de qualités humaines telles que des âmes ou des confessions égare le public et érode la confiance dans la technologie. Il met en lumière comment des entreprises comme OpenAI et Anthropic utilisent un tel langage, qui occulte les vrais problèmes comme les biais et la sécurité. L’article plaide pour une terminologie plus précise afin de favoriser une compréhension exacte.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser