President Trump signs executive order banning Anthropic AI in federal government amid military dispute, with symbolic AI restriction visuals.
President Trump signs executive order banning Anthropic AI in federal government amid military dispute, with symbolic AI restriction visuals.
Image générée par IA

Trump ordonne l'interdiction fédérale de l'IA d'Anthropic pour usage gouvernemental

Image générée par IA

Le président américain Donald Trump a ordonné à toutes les agences fédérales de cesser immédiatement d'utiliser les outils d'IA d'Anthropic au milieu d'un différend sur les applications militaires. Cette mesure fait suite à des semaines de clashes entre Anthropic et des responsables du Pentagone concernant les restrictions sur l'IA pour la surveillance de masse et les armes autonomes. Une période de transition de six mois a été annoncée.

Le 28 février 2026, le président Donald Trump a annoncé qu'il instruisait toutes les agences fédérales à « cesser immédiatement » l'utilisation des outils d'IA d'Anthropic. Cette directive découle de tensions persistantes avec l'entreprise d'IA sur le déploiement militaire de sa technologie. Trump a critiqué Anthropic dans un post sur Truth Social, déclarant : « Les fous de gauche chez Anthropic ont commis une ERREUR CATASTROPHIQUE en essayant d'INTIMIDER le Département de la Guerre. »Le conflit s'est intensifié après que le Département de la Défense a cherché à modifier un accord de juillet 2025 avec Anthropic et d'autres entreprises, visant à autoriser « tout usage légal » de l'IA et à éliminer les restrictions. Anthropic s'est opposé, arguant que de tels changements pourraient permettre des armes létales totalement autonomes ou une surveillance de masse des citoyens américains. Le Pentagone affirme ne pas utiliser l'IA de cette manière et n'avoir aucune intention de le faire. Anthropic a été le premier grand laboratoire d'IA à s'associer à l'armée via un accord de 200 millions de dollars l'année dernière, développant des modèles personnalisés comme Claude Gov pour des systèmes classifiés, accessibles via les plateformes Palantir et Amazon. Ces modèles soutiennent des tâches telles que la rédaction de rapports, le résumé de documents, l'analyse de renseignement et la planification militaire.Le secrétaire à la Défense Pete Hegseth a rencontré le PDG d'Anthropic, Dario Amodei, en début de semaine, accordant à l'entreprise jusqu'au vendredi pour accepter les termes révisés. Hegseth a loué les produits d'Anthropic mais a dirigé le Pentagone à la désigner comme « risque dans la chaîne d'approvisionnement » après l'échec des discussions, suscitant des préoccupations dans la Silicon Valley sur un accès plus large à son IA. Anthropic a répondu fermement : « Aucune quantité d'intimidation ou de punition du Département de la Guerre ne changera notre position sur la surveillance domestique de masse ou les armes totalement autonomes. » L'entreprise prévoit de contester cette désignation en justice.À l'inverse, OpenAI a conclu un accord avec le Département de la Défense le même jour pour déployer ses modèles sur des réseaux classifiés, intégrant des principes de sécurité contre la surveillance de masse et les armes autonomes. Le PDG Sam Altman a noté sur X que l'accord inclut des garde-fous techniques et un respect mutuel pour la sécurité. L'expert Michael Horowitz a qualifié le différend d'Anthropic d'inutile, centré sur des cas d'usage théoriques plutôt que actuels.Le désaccord public s'est intensifié après des rapports indiquant que des chefs militaires américains ont utilisé Claude pour planifier une opération visant à capturer le président du Venezuela, Nicolás Maduro, bien qu'Anthropic ait nié toute interférence.

Ce que les gens disent

Les discussions sur X concernant l'interdiction fédérale de Trump sur l'IA d'Anthropic révèlent des sentiments divers. Les partisans, y compris les supporters de Trump, célèbrent la mesure comme une protection de la sécurité nationale contre une entreprise 'woke' refusant les besoins militaires. Les critiques accusent l'administration d'intimider une entreprise éthique pour avoir rejeté la surveillance de masse et les armes autonomes. Les observateurs neutres mettent en lumière le débat éthique vs sécurité, l'accord contrasté d'OpenAI avec le DoD et les perturbations potentielles sur le marché.

Articles connexes

President Trump signs executive order banning Anthropic AI from federal agencies amid Pentagon dispute, illustrated with banned AI screens, Pentagon, and courthouse symbols.
Image générée par IA

Trump orders US agencies to halt use of Anthropic AI technology

Rapporté par l'IA Image générée par IA

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Le président américain Donald Trump a ordonné aux agences fédérales de cesser immédiatement d'utiliser l'IA Claude d'Anthropic, après le refus de l'entreprise d'autoriser son usage pour la surveillance de masse ou les armes autonomes. L'ordonnance prévoit une période de transition de six mois. Cette décision résulte des affrontements en cours entre Anthropic et le Département de la Défense sur les restrictions relatives à l'IA.

Rapporté par l'IA

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

Anthropic a étendu sa capacité de mémoire au niveau gratuit de son chatbot IA Claude, permettant aux utilisateurs de référencer des conversations passées. L’entreprise a également publié un outil pour importer des souvenirs de chatbots concurrents comme ChatGPT et Gemini. Cette mise à jour coïncide avec la montée en popularité de Claude au milieu d’un différend avec le Département de la Défense des États-Unis.

Rapporté par l'IA

En 2025, les agents IA sont devenus centraux dans les progrès de l'intelligence artificielle, permettant aux systèmes d'utiliser des outils et d'agir de manière autonome. De la théorie aux applications quotidiennes, ils ont transformé les interactions humaines avec les grands modèles de langage. Pourtant, ils ont aussi apporté des défis comme des risques de sécurité et des lacunes réglementaires.

Anthropic a lancé un plugin juridique pour son outil Claude Cowork, suscitant des inquiétudes parmi les fournisseurs d'IA juridique dédiés. Le plugin offre des fonctionnalités utiles pour l'examen des contrats et la conformité, mais reste en deçà du remplacement des plateformes spécialisées. Les entreprises sud-africaines font face à des obstacles supplémentaires en raison des réglementations sur la protection des données.

Rapporté par l'IA

La récente mise à jour de la plateforme CoWork d'Anthropic a entraîné des réactions marquées sur le marché dans l'industrie logicielle. Le secteur logiciel américain a connu une vente massive généralisée, perdant plus de 1 000 milliards de dollars de valeur, selon Fortune. Ce développement met en lumière l'incertitude des investisseurs quant aux workflows natifs IA et leur impact sur les actions SaaS.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser