Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Image générée par IA

Le Pentagone conteste les limites imposées par Anthropic à l'utilisation militaire de Claude, alors que les négociations contractuelles sont tendues

Image générée par IA
Vérifié par des faits

Après que le PDG d'Anthropic, Dario Amodei, a déclaré fin février que l'entreprise ne permettrait pas que son modèle Claude soit utilisé pour la surveillance domestique de masse ou pour des armes entièrement autonomes, de hauts responsables du Pentagone ont déclaré qu'ils n'avaient pas l'intention d'utiliser l'IA pour la surveillance domestique et ont insisté sur le fait que les entreprises privées ne peuvent pas fixer de limites contraignantes sur la manière dont l'armée américaine utilise les outils d'IA.

En juillet dernier, Doug Matty, responsable du numérique et de l'intelligence artificielle au Pentagone, a annoncé l'attribution de contrats d'une valeur maximale de 200 millions de dollars chacun à quatre entreprises technologiques - Anthropic, Google, OpenAI et xAI - afin de fournir des modèles d'IA avancés pour les missions du ministère de la défense. M. Matty a déclaré que le ministère avait l'intention d'accélérer l'adoption de l'IA commerciale pour les "tâches essentielles à la mission interarmées" dans le "domaine de la lutte contre la guerre", mais le Pentagone a donné peu de détails opérationnels, invoquant la sécurité nationale.

Les prix relativement opaques ont attiré une nouvelle attention à la fin du mois de février, lorsque Anthropic a déclaré qu'elle insistait sur les limites imposées à Claude dans un "ensemble étroit de cas". Dans une déclaration faite le 26 février, M. Amodei s'est dit tout à fait favorable à l'utilisation de l'IA pour aider à défendre les États-Unis et d'autres démocraties, mais a fait valoir que certaines applications pourraient porter atteinte aux valeurs démocratiques, notamment la "surveillance domestique de masse" et les "armes entièrement autonomes", qu'il a décrites comme étant des drones de combat autoguidés.

De hauts fonctionnaires du ministère de la défense ont réagi en réfutant à la fois le principe et l'influence de l'entreprise. Selon un rapport cité par The Nation, les responsables du Pentagone ont déclaré qu'ils n'avaient pas l'intention d'utiliser l'IA pour la surveillance intérieure et que les systèmes d'armes sans pilote resteraient sous la surveillance de l'homme. Mais ils ont également fait valoir que les contractants ne devraient pas être en mesure d'imposer leurs propres conditions en matière de libertés civiles aux opérations du Pentagone. Emil Michael, sous-secrétaire d'État à la défense chargé de la recherche et de l'ingénierie, aurait ainsi déclaré : "Nous n'aurons pas de grandes entreprises dans le domaine des technologies de l'information et de la communication : "Nous ne laisserons aucune entreprise de BigTech décider des libertés civiles des Américains.

The Nation rapporte que, lors des négociations, Michael a également soulevé une question distincte, à savoir si Anthropic s'opposerait à l'utilisation de Claude dans des missions liées au nucléaire, telles que la défense antimissile, et qu'Amodei n'a pas émis d'objection à cette utilisation.

Le différend a mis en lumière une tension plus large entre la volonté du Pentagone d'intégrer l'IA générative dans le renseignement, le ciblage et le développement d'armes, et les garde-fous dont les entreprises d'IA disent avoir besoin pour éviter les abus. The Nation a évoqué les efforts déployés de longue date par le ministère de la défense, tels que le projet Maven, qui a commencé par utiliser l'IA pour analyser les vidéos de drones à la recherche de cibles potentielles, et l'initiative Collaborative Operations in Denied Environment (CODE) de la DARPA, qui a travaillé sur l'autonomie de groupes de drones opérant selon des règles préétablies.

La politique officielle du Pentagone en matière d'autonomie est décrite dans la directive 3000.09 du ministère de la défense, qui stipule que les armes autonomes et semi-autonomes doivent être conçues de manière à ce que les commandants et les opérateurs puissent exercer "des niveaux appropriés de jugement humain sur l'utilisation de la force". Les critiques ont fait valoir que la flexibilité de la politique laisse encore de la place à l'autonomie qui pourrait réduire de manière significative le contrôle humain en temps réel.

Alors que l'IA s'intègre de plus en plus dans la planification et les opérations militaires, l'impasse entre Anthropic et le Pentagone met en évidence une question non résolue au cœur de l'expansion de l'IA dans l'armée américaine : comment concilier l'adoption rapide de systèmes commerciaux avec les demandes de limites applicables à la surveillance nationale et à la délégation de la force létale aux machines ?

Ce que les gens disent

Les discussions sur le X révèlent un clivage sur le différend entre le Pentagone et Anthropic concernant les limites de Claude AI. Les partisans d'Anthropic se félicitent de leur position éthique contre la surveillance de masse et les armes autonomes, et considèrent que la liste noire du Pentagone est excessive. Les détracteurs affirment que les entreprises privées ne peuvent pas imposer de restrictions à l'utilisation militaire et que de simples clauses contractuelles suffisent. Les messages neutres détaillent l'impasse, les délais et les escalades juridiques, contrastant avec la conformité d'OpenAI. Les comptes rendus de journalistes et d'analystes très engagés mettent en évidence les tensions entre la sécurité nationale et la sécurité de l'IA.

Articles connexes

Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Image générée par IA

Pentagon designates Anthropic a ‘supply chain risk’ after dispute over military use limits for Claude AI

Rapporté par l'IA Image générée par IA Vérifié par des faits

The Pentagon has formally notified AI company Anthropic that it is deemed a “supply chain risk,” a rare designation that critics say is typically aimed at adversary-linked technology. The move follows a breakdown in negotiations over whether the U.S. military can use Anthropic’s Claude models for all lawful purposes, versus contractual limits the company says are needed to prevent fully autonomous weapons and mass domestic surveillance.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Rapporté par l'IA

Anthropic's CEO Dario Amodei stated that the company will not comply with the Pentagon's request to remove safeguards from its AI models, despite threats of exclusion from defense systems. The dispute centers on preventing the AI's use in autonomous weapons and domestic surveillance. The firm, which has a $200 million contract with the Department of Defense, emphasizes its commitment to ethical AI use.

Artificial intelligence (AI) has emerged at the center of modern warfare, playing an operational support role in the recent U.S.-Israeli strike on Iran. Anthropic's Claude and Palantir's Gotham were used for intelligence assessments and target identification. Experts predict further expansion of AI in military applications.

Rapporté par l'IA

Anthropic has limited access to its Claude Mythos Preview AI model due to its superior ability to detect and exploit software vulnerabilities, while launching Project Glasswing—a consortium with over 45 tech firms including Apple, Google, and Microsoft—to collaboratively patch flaws and bolster defenses. The announcement follows recent data leaks at the firm.

Anthropic has launched the Anthropic Institute, a new research initiative, and opened its first Public Policy office in Washington, DC, this spring. These steps follow the AI company's recent federal lawsuit against the US government over a Defense Department supply chain risk designation tied to a contract dispute.

Rapporté par l'IA

Following last week's unveiling that sparked global alarms, Anthropic has restricted its powerful Mythos AI—adept at finding cybersecurity vulnerabilities—to select firms under Project Glasswing, including Amazon Web Services, Apple, and Google, after an accidental leak raised national security concerns.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser