Split-scene illustration of Anthropic's renewed Pentagon talks contrasting with backlash against OpenAI's military AI deal.
Split-scene illustration of Anthropic's renewed Pentagon talks contrasting with backlash against OpenAI's military AI deal.
Image générée par IA

Anthropic reprend les discussions avec le Pentagone alors que l’accord militaire d’OpenAI suscite des remous

Image générée par IA

Après l’interdiction fédérale la semaine dernière de ses outils d’IA, Anthropic a repris les négociations avec le département de la Défense des États-Unis pour éviter une désignation de risque pour la chaîne d’approvisionnement. Parallèlement, l’accord militaire parallèle d’OpenAI fait l’objet de critiques de la part des employés, des rivaux et du PDG d’Anthropic, Dario Amodei, qui l’a accusé de déclarations trompeuses dans un mémo divulgué.

Pour éviter d’être qualifié de risque pour la chaîne d’approvisionnement — une désignation généralement réservée aux adversaires étrangers —, Anthropic a repris les discussions avec le Pentagone, selon des informations du Financial Times et de Bloomberg indiquées le 5 mars 2026. Le PDG Dario Amodei négocie avec le sous-secrétaire à la Défense pour la recherche et l’ingénierie Emil Michael, après l’échec d’un contrat antérieur de 200 millions de dollars en 2025 en raison d’une clause interdisant la surveillance de masse.  Amodei a détaillé l’échec dans un mémo aux employés : le département a proposé de respecter les conditions d’Anthropic si elle supprimait une clause sur l’« analyse de données acquises en vrac » — précisément le scénario de surveillance qu’Anthropic voulait bloquer. Anthropic a refusé, incitant le Pentagone à menacer d’annulation et de la désignation de risque. Le président Trump a ensuite ordonné aux agences fédérales de cesser d’utiliser la technologie d’Anthropic le 28 février, bien qu’une période de transition de six mois ait permis un accès continu, y compris pour la planification d’une frappe aérienne sur l’Iran.  Amodei a vivement critiqué la réponse d’OpenAI comme étant « juste de purs mensonges » dans le mémo, attribuant certains problèmes d’Anthropic au manque de « louanges de style dictatorial à Trump », contrairement au PDG d’OpenAI Sam Altman. OpenAI a obtenu son propre accord avec le département de la Défense peu après la rupture d’Anthropic, Altman affirmant sur X qu’il avait conseillé contre la désignation de risque et suggérant qu’Anthropic aurait dû accepter des termes similaires. OpenAI a ensuite modifié son accord pour interdire la surveillance de masse sur les Américains.  Les employés d’OpenAI ont critiqué l’accord lors d’une réunion générale, pressant Altman pour des détails ; il a reconnu une négligence interne sur les réseaux sociaux. Précédemment, OpenAI interdisait l’usage militaire mais autorisait les tests du Pentagone via Microsoft. La controverse a propulsé Claude d’Anthropic en tête du classement des applications gratuites d’Apple.  Part of the Anthropic–Pentagon AI contract dispute series.

Ce que les gens disent

Les discussions sur X se concentrent sur la reprise par Anthropic des pourparlers avec le Pentagone pour éviter une désignation de risque pour la chaîne d’approvisionnement après avoir refusé de supprimer les garde-fous de l’IA sur la surveillance et les armes autonomes. Le mémo divulgué de Dario Amodei accuse l’accord militaire d’OpenAI de « purs mensonges » et de « théâtre de sécurité », provoquant des réactions négatives incluant des boycotts d’utilisateurs de ChatGPT et des éloges pour l’éthique d’Anthropic. Les sentiments incluent un soutien aux principes de sécurité de l’IA, des critiques de l’hypocrisie d’OpenAI, des reportages neutres et un scepticisme envers la pression gouvernementale.

Articles connexes

President Trump signs executive order banning Anthropic AI in federal government amid military dispute, with symbolic AI restriction visuals.
Image générée par IA

Trump ordonne l'interdiction fédérale de l'IA d'Anthropic pour usage gouvernemental

Rapporté par l'IA Image générée par IA

Le président américain Donald Trump a ordonné à toutes les agences fédérales de cesser immédiatement d'utiliser les outils d'IA d'Anthropic au milieu d'un différend sur les applications militaires. Cette mesure fait suite à des semaines de clashes entre Anthropic et des responsables du Pentagone concernant les restrictions sur l'IA pour la surveillance de masse et les armes autonomes. Une période de transition de six mois a été annoncée.

Le PDG d'Anthropic, Dario Amodei, a déclaré que l'entreprise ne se pliera pas à la demande du Pentagone de supprimer les garde-fous de ses modèles d'IA, malgré les menaces d'exclusion des systèmes de défense. Le différend porte sur la prévention de l'utilisation de l'IA dans des armes autonomes et la surveillance intérieure. L'entreprise, qui dispose d'un contrat de 200 millions de dollars avec le Département de la Défense, souligne son engagement envers une utilisation éthique de l'IA.

Rapporté par l'IA

Des centaines d'employés de Google et OpenAI ont signé une lettre ouverte en solidarité avec Anthropic, exhortant leurs entreprises à résister aux exigences du Pentagone pour un usage militaire sans restriction des modèles d'IA. La lettre s'oppose aux usages impliquant une surveillance de masse domestique et des tueries autonomes sans supervision humaine. Cela survient au milieu de menaces du secrétaire à la Défense américain Pete Hegseth de qualifier Anthropic de risque pour la chaîne d'approvisionnement.

Anthropic a étendu sa capacité de mémoire au niveau gratuit de son chatbot IA Claude, permettant aux utilisateurs de référencer des conversations passées. L’entreprise a également publié un outil pour importer des souvenirs de chatbots concurrents comme ChatGPT et Gemini. Cette mise à jour coïncide avec la montée en popularité de Claude au milieu d’un différend avec le Département de la Défense des États-Unis.

Rapporté par l'IA

Le 5 février 2026, Anthropic et OpenAI ont lancé simultanément des produits faisant passer les utilisateurs de la discussion avec l’IA à la gestion d’équipes d’agents IA. Anthropic a introduit Claude Opus 4.6 avec des équipes d’agents pour les développeurs, tandis qu’OpenAI a dévoilé Frontier et GPT-5.3-Codex pour les flux de travail d’entreprise. Ces sorties coïncident avec une chute de 285 milliards de dollars des actions logicielles, sur fond de craintes que l’IA perturbe les fournisseurs SaaS traditionnels.

En 2025, les agents IA sont devenus centraux dans les progrès de l'intelligence artificielle, permettant aux systèmes d'utiliser des outils et d'agir de manière autonome. De la théorie aux applications quotidiennes, ils ont transformé les interactions humaines avec les grands modèles de langage. Pourtant, ils ont aussi apporté des défis comme des risques de sécurité et des lacunes réglementaires.

Rapporté par l'IA

Le serveur Git MCP officiel d'Anthropic contenait des vulnérabilités de sécurité inquiétantes qui pouvaient être enchaînées pour des impacts graves. Ces problèmes ont été mis en lumière dans un rapport récent de TechRadar. Des détails sont apparus sur les risques potentiels pour l'infrastructure de l'entreprise d'IA.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser