Split-scene illustration of Anthropic's renewed Pentagon talks contrasting with backlash against OpenAI's military AI deal.
Split-scene illustration of Anthropic's renewed Pentagon talks contrasting with backlash against OpenAI's military AI deal.
Image générée par IA

Anthropic reprend les discussions avec le Pentagone alors que l’accord militaire d’OpenAI suscite des remous

Image générée par IA

Après l’interdiction fédérale la semaine dernière de ses outils d’IA, Anthropic a repris les négociations avec le département de la Défense des États-Unis pour éviter une désignation de risque pour la chaîne d’approvisionnement. Parallèlement, l’accord militaire parallèle d’OpenAI fait l’objet de critiques de la part des employés, des rivaux et du PDG d’Anthropic, Dario Amodei, qui l’a accusé de déclarations trompeuses dans un mémo divulgué.

Pour éviter d’être qualifié de risque pour la chaîne d’approvisionnement — une désignation généralement réservée aux adversaires étrangers —, Anthropic a repris les discussions avec le Pentagone, selon des informations du Financial Times et de Bloomberg indiquées le 5 mars 2026. Le PDG Dario Amodei négocie avec le sous-secrétaire à la Défense pour la recherche et l’ingénierie Emil Michael, après l’échec d’un contrat antérieur de 200 millions de dollars en 2025 en raison d’une clause interdisant la surveillance de masse.  Amodei a détaillé l’échec dans un mémo aux employés : le département a proposé de respecter les conditions d’Anthropic si elle supprimait une clause sur l’« analyse de données acquises en vrac » — précisément le scénario de surveillance qu’Anthropic voulait bloquer. Anthropic a refusé, incitant le Pentagone à menacer d’annulation et de la désignation de risque. Le président Trump a ensuite ordonné aux agences fédérales de cesser d’utiliser la technologie d’Anthropic le 28 février, bien qu’une période de transition de six mois ait permis un accès continu, y compris pour la planification d’une frappe aérienne sur l’Iran.  Amodei a vivement critiqué la réponse d’OpenAI comme étant « juste de purs mensonges » dans le mémo, attribuant certains problèmes d’Anthropic au manque de « louanges de style dictatorial à Trump », contrairement au PDG d’OpenAI Sam Altman. OpenAI a obtenu son propre accord avec le département de la Défense peu après la rupture d’Anthropic, Altman affirmant sur X qu’il avait conseillé contre la désignation de risque et suggérant qu’Anthropic aurait dû accepter des termes similaires. OpenAI a ensuite modifié son accord pour interdire la surveillance de masse sur les Américains.  Les employés d’OpenAI ont critiqué l’accord lors d’une réunion générale, pressant Altman pour des détails ; il a reconnu une négligence interne sur les réseaux sociaux. Précédemment, OpenAI interdisait l’usage militaire mais autorisait les tests du Pentagone via Microsoft. La controverse a propulsé Claude d’Anthropic en tête du classement des applications gratuites d’Apple.  Part of the Anthropic–Pentagon AI contract dispute series.

Ce que les gens disent

Les discussions sur X se concentrent sur la reprise par Anthropic des pourparlers avec le Pentagone pour éviter une désignation de risque pour la chaîne d’approvisionnement après avoir refusé de supprimer les garde-fous de l’IA sur la surveillance et les armes autonomes. Le mémo divulgué de Dario Amodei accuse l’accord militaire d’OpenAI de « purs mensonges » et de « théâtre de sécurité », provoquant des réactions négatives incluant des boycotts d’utilisateurs de ChatGPT et des éloges pour l’éthique d’Anthropic. Les sentiments incluent un soutien aux principes de sécurité de l’IA, des critiques de l’hypocrisie d’OpenAI, des reportages neutres et un scepticisme envers la pression gouvernementale.

Articles connexes

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Image générée par IA

Anthropic poursuit le département de la Défense américain en justice pour sa désignation comme risque dans la chaîne d'approvisionnement

Rapporté par l'IA Image générée par IA

Anthropic a déposé une plainte fédérale contre le département de la Défense des États-Unis, contestant son étiquetage récent de l'entreprise d'IA comme un risque pour la chaîne d'approvisionnement. Le différend provient d'un désaccord contractuel sur l'utilisation de l'IA Claude d'Anthropic à des fins militaires, incluant des restrictions sur la surveillance de masse et les armes autonomes. L'entreprise affirme que cette désignation viole les droits à la liberté d'expression et aux garanties procédurales.

Le PDG d'Anthropic, Dario Amodei, a déclaré que l'entreprise ne se pliera pas à la demande du Pentagone de supprimer les garde-fous de ses modèles d'IA, malgré les menaces d'exclusion des systèmes de défense. Le différend porte sur la prévention de l'utilisation de l'IA dans des armes autonomes et la surveillance intérieure. L'entreprise, qui dispose d'un contrat de 200 millions de dollars avec le Département de la Défense, souligne son engagement envers une utilisation éthique de l'IA.

Rapporté par l'IA

Le président américain Donald Trump a ordonné à toutes les agences fédérales de cesser immédiatement d'utiliser les outils d'IA d'Anthropic au milieu d'un différend sur les applications militaires. Cette mesure fait suite à des semaines de clashes entre Anthropic et des responsables du Pentagone concernant les restrictions sur l'IA pour la surveillance de masse et les armes autonomes. Une période de transition de six mois a été annoncée.

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

Rapporté par l'IA

Anthropic a lancé l’Anthropic Institute, une nouvelle initiative de recherche, et ouvert son premier bureau de politique publique à Washington, DC, ce printemps. Ces mesures font suite au récent procès fédéral intenté par l’entreprise d’IA contre le gouvernement américain concernant une désignation de risque dans la chaîne d’approvisionnement du Département de la Défense liée à un différend contractuel.

Anthropic a limité l'accès à son modèle d'IA Claude Mythos Preview en raison de sa capacité supérieure à détecter et exploiter les vulnérabilités logicielles, tout en lançant le Project Glasswing, un consortium réunissant plus de 45 entreprises technologiques, dont Apple, Google et Microsoft, pour corriger les failles et renforcer les défenses de manière collaborative. Cette annonce fait suite à de récentes fuites de données au sein de l'entreprise.

Rapporté par l'IA

Caitlin Kalinowski, responsable de la robotique chez OpenAI, a démissionné, citant un manque de délibération sur les garde-fous éthiques dans l'accord récent de l'entreprise avec le département de la Défense. Elle a exprimé des préoccupations concernant une surveillance potentielle et des armes autonomes dans un post sur X. OpenAI a reconnu son départ et réitéré ses engagements contre la surveillance intérieure et les systèmes autonomes létaux.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser