President Trump signs executive order banning Anthropic AI in federal government amid military dispute, with symbolic AI restriction visuals.
President Trump signs executive order banning Anthropic AI in federal government amid military dispute, with symbolic AI restriction visuals.
Image générée par IA

Trump ordonne l'interdiction fédérale de l'IA d'Anthropic pour usage gouvernemental

Image générée par IA

Le président américain Donald Trump a ordonné à toutes les agences fédérales de cesser immédiatement d'utiliser les outils d'IA d'Anthropic au milieu d'un différend sur les applications militaires. Cette mesure fait suite à des semaines de clashes entre Anthropic et des responsables du Pentagone concernant les restrictions sur l'IA pour la surveillance de masse et les armes autonomes. Une période de transition de six mois a été annoncée.

Le 28 février 2026, le président Donald Trump a annoncé qu'il instruisait toutes les agences fédérales à « cesser immédiatement » l'utilisation des outils d'IA d'Anthropic. Cette directive découle de tensions persistantes avec l'entreprise d'IA sur le déploiement militaire de sa technologie. Trump a critiqué Anthropic dans un post sur Truth Social, déclarant : « Les fous de gauche chez Anthropic ont commis une ERREUR CATASTROPHIQUE en essayant d'INTIMIDER le Département de la Guerre. »Le conflit s'est intensifié après que le Département de la Défense a cherché à modifier un accord de juillet 2025 avec Anthropic et d'autres entreprises, visant à autoriser « tout usage légal » de l'IA et à éliminer les restrictions. Anthropic s'est opposé, arguant que de tels changements pourraient permettre des armes létales totalement autonomes ou une surveillance de masse des citoyens américains. Le Pentagone affirme ne pas utiliser l'IA de cette manière et n'avoir aucune intention de le faire. Anthropic a été le premier grand laboratoire d'IA à s'associer à l'armée via un accord de 200 millions de dollars l'année dernière, développant des modèles personnalisés comme Claude Gov pour des systèmes classifiés, accessibles via les plateformes Palantir et Amazon. Ces modèles soutiennent des tâches telles que la rédaction de rapports, le résumé de documents, l'analyse de renseignement et la planification militaire.Le secrétaire à la Défense Pete Hegseth a rencontré le PDG d'Anthropic, Dario Amodei, en début de semaine, accordant à l'entreprise jusqu'au vendredi pour accepter les termes révisés. Hegseth a loué les produits d'Anthropic mais a dirigé le Pentagone à la désigner comme « risque dans la chaîne d'approvisionnement » après l'échec des discussions, suscitant des préoccupations dans la Silicon Valley sur un accès plus large à son IA. Anthropic a répondu fermement : « Aucune quantité d'intimidation ou de punition du Département de la Guerre ne changera notre position sur la surveillance domestique de masse ou les armes totalement autonomes. » L'entreprise prévoit de contester cette désignation en justice.À l'inverse, OpenAI a conclu un accord avec le Département de la Défense le même jour pour déployer ses modèles sur des réseaux classifiés, intégrant des principes de sécurité contre la surveillance de masse et les armes autonomes. Le PDG Sam Altman a noté sur X que l'accord inclut des garde-fous techniques et un respect mutuel pour la sécurité. L'expert Michael Horowitz a qualifié le différend d'Anthropic d'inutile, centré sur des cas d'usage théoriques plutôt que actuels.Le désaccord public s'est intensifié après des rapports indiquant que des chefs militaires américains ont utilisé Claude pour planifier une opération visant à capturer le président du Venezuela, Nicolás Maduro, bien qu'Anthropic ait nié toute interférence.

Ce que les gens disent

Les discussions sur X concernant l'interdiction fédérale de Trump sur l'IA d'Anthropic révèlent des sentiments divers. Les partisans, y compris les supporters de Trump, célèbrent la mesure comme une protection de la sécurité nationale contre une entreprise 'woke' refusant les besoins militaires. Les critiques accusent l'administration d'intimider une entreprise éthique pour avoir rejeté la surveillance de masse et les armes autonomes. Les observateurs neutres mettent en lumière le débat éthique vs sécurité, l'accord contrasté d'OpenAI avec le DoD et les perturbations potentielles sur le marché.

Articles connexes

President Trump signs executive order banning Anthropic AI from federal agencies amid Pentagon dispute, illustrated with banned AI screens, Pentagon, and courthouse symbols.
Image générée par IA

Trump orders US agencies to halt use of Anthropic AI technology

Rapporté par l'IA Image générée par IA

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's Claude AI, following the company's refusal to allow its use for mass surveillance or autonomous weapons. The order includes a six-month phaseout period. This decision stems from ongoing clashes between Anthropic and the Department of Defense over AI restrictions.

Rapporté par l'IA

Anthropic has filed a federal lawsuit against the US Department of Defense, challenging its recent label of the AI company as a supply-chain risk. The dispute stems from a contract disagreement over the use of Anthropic's Claude AI for military purposes, including restrictions on mass surveillance and autonomous weapons. The company argues the designation violates free speech and due process rights.

A federal judge in San Francisco issued a preliminary injunction on March 27, 2026, blocking the Trump administration's designation of AI company Anthropic as a military supply chain risk—a label applied three weeks earlier amid disputes over the firm's limits on its Claude AI models for military uses like autonomous weapons.

Rapporté par l'IA

In the latest development of the Anthropic supply chain risk controversy, a U.S. federal appeals court on April 9 denied Anthropic's emergency motion to block the Trump administration's blacklisting of its AI technology. The court expedited oral arguments for May 19 but ruled the balance of equities favors the government, marking a setback following a prior district court injunction.

In the wake of Anthropic's unveiling of its powerful Claude Mythos AI—capable of detecting and exploiting software vulnerabilities—the US Treasury Secretary has convened top bank executives to highlight escalating AI-driven cyber threats. The move underscores growing concerns as the AI is restricted to a tech coalition via Project Glasswing.

Rapporté par l'IA

The Trump administration has released a National AI Legislative Framework to unify federal AI rules, address national security concerns, and counter Beijing's growing dominance in the sector. It argues that state laws should not govern areas better suited to the federal government or contradict US strategy for global AI leadership. The White House looks forward to working with Congress to turn it into legislation.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser