Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Image générée par IA

Le Pentagone conteste les limites imposées par Anthropic à l'utilisation militaire de Claude, alors que les négociations contractuelles sont tendues

Image générée par IA
Vérifié par des faits

Après que le PDG d'Anthropic, Dario Amodei, a déclaré fin février que l'entreprise ne permettrait pas que son modèle Claude soit utilisé pour la surveillance domestique de masse ou pour des armes entièrement autonomes, de hauts responsables du Pentagone ont déclaré qu'ils n'avaient pas l'intention d'utiliser l'IA pour la surveillance domestique et ont insisté sur le fait que les entreprises privées ne peuvent pas fixer de limites contraignantes sur la manière dont l'armée américaine utilise les outils d'IA.

En juillet dernier, Doug Matty, responsable du numérique et de l'intelligence artificielle au Pentagone, a annoncé l'attribution de contrats d'une valeur maximale de 200 millions de dollars chacun à quatre entreprises technologiques - Anthropic, Google, OpenAI et xAI - afin de fournir des modèles d'IA avancés pour les missions du ministère de la défense. M. Matty a déclaré que le ministère avait l'intention d'accélérer l'adoption de l'IA commerciale pour les "tâches essentielles à la mission interarmées" dans le "domaine de la lutte contre la guerre", mais le Pentagone a donné peu de détails opérationnels, invoquant la sécurité nationale.

Les prix relativement opaques ont attiré une nouvelle attention à la fin du mois de février, lorsque Anthropic a déclaré qu'elle insistait sur les limites imposées à Claude dans un "ensemble étroit de cas". Dans une déclaration faite le 26 février, M. Amodei s'est dit tout à fait favorable à l'utilisation de l'IA pour aider à défendre les États-Unis et d'autres démocraties, mais a fait valoir que certaines applications pourraient porter atteinte aux valeurs démocratiques, notamment la "surveillance domestique de masse" et les "armes entièrement autonomes", qu'il a décrites comme étant des drones de combat autoguidés.

De hauts fonctionnaires du ministère de la défense ont réagi en réfutant à la fois le principe et l'influence de l'entreprise. Selon un rapport cité par The Nation, les responsables du Pentagone ont déclaré qu'ils n'avaient pas l'intention d'utiliser l'IA pour la surveillance intérieure et que les systèmes d'armes sans pilote resteraient sous la surveillance de l'homme. Mais ils ont également fait valoir que les contractants ne devraient pas être en mesure d'imposer leurs propres conditions en matière de libertés civiles aux opérations du Pentagone. Emil Michael, sous-secrétaire d'État à la défense chargé de la recherche et de l'ingénierie, aurait ainsi déclaré : "Nous n'aurons pas de grandes entreprises dans le domaine des technologies de l'information et de la communication : "Nous ne laisserons aucune entreprise de BigTech décider des libertés civiles des Américains.

The Nation rapporte que, lors des négociations, Michael a également soulevé une question distincte, à savoir si Anthropic s'opposerait à l'utilisation de Claude dans des missions liées au nucléaire, telles que la défense antimissile, et qu'Amodei n'a pas émis d'objection à cette utilisation.

Le différend a mis en lumière une tension plus large entre la volonté du Pentagone d'intégrer l'IA générative dans le renseignement, le ciblage et le développement d'armes, et les garde-fous dont les entreprises d'IA disent avoir besoin pour éviter les abus. The Nation a évoqué les efforts déployés de longue date par le ministère de la défense, tels que le projet Maven, qui a commencé par utiliser l'IA pour analyser les vidéos de drones à la recherche de cibles potentielles, et l'initiative Collaborative Operations in Denied Environment (CODE) de la DARPA, qui a travaillé sur l'autonomie de groupes de drones opérant selon des règles préétablies.

La politique officielle du Pentagone en matière d'autonomie est décrite dans la directive 3000.09 du ministère de la défense, qui stipule que les armes autonomes et semi-autonomes doivent être conçues de manière à ce que les commandants et les opérateurs puissent exercer "des niveaux appropriés de jugement humain sur l'utilisation de la force". Les critiques ont fait valoir que la flexibilité de la politique laisse encore de la place à l'autonomie qui pourrait réduire de manière significative le contrôle humain en temps réel.

Alors que l'IA s'intègre de plus en plus dans la planification et les opérations militaires, l'impasse entre Anthropic et le Pentagone met en évidence une question non résolue au cœur de l'expansion de l'IA dans l'armée américaine : comment concilier l'adoption rapide de systèmes commerciaux avec les demandes de limites applicables à la surveillance nationale et à la délégation de la force létale aux machines ?

Ce que les gens disent

Les discussions sur le X révèlent un clivage sur le différend entre le Pentagone et Anthropic concernant les limites de Claude AI. Les partisans d'Anthropic se félicitent de leur position éthique contre la surveillance de masse et les armes autonomes, et considèrent que la liste noire du Pentagone est excessive. Les détracteurs affirment que les entreprises privées ne peuvent pas imposer de restrictions à l'utilisation militaire et que de simples clauses contractuelles suffisent. Les messages neutres détaillent l'impasse, les délais et les escalades juridiques, contrastant avec la conformité d'OpenAI. Les comptes rendus de journalistes et d'analystes très engagés mettent en évidence les tensions entre la sécurité nationale et la sécurité de l'IA.

Articles connexes

Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Image générée par IA

Le Pentagone désigne Anthropic comme un « risque pour la chaîne d’approvisionnement » après un différend sur les limites d’utilisation militaire pour Claude ai

Rapporté par l'IA Image générée par IA Vérifié par des faits

Le Pentagone a formellement notifié à la société d’IA Anthropic qu’elle est considérée comme un « risque pour la chaîne d’approvisionnement », une désignation rare que les critiques estiment généralement viser les technologies liées à des adversaires. Cette mesure fait suite à une rupture des négociations sur la question de savoir si l’armée américaine peut utiliser les modèles Claude d’Anthropic à toutes les fins légales, contre les limites contractuelles que l’entreprise juge nécessaires pour empêcher les armes pleinement autonomes et la surveillance domestique de masse.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Rapporté par l'IA

Le PDG d'Anthropic, Dario Amodei, a déclaré que l'entreprise ne se pliera pas à la demande du Pentagone de supprimer les garde-fous de ses modèles d'IA, malgré les menaces d'exclusion des systèmes de défense. Le différend porte sur la prévention de l'utilisation de l'IA dans des armes autonomes et la surveillance intérieure. L'entreprise, qui dispose d'un contrat de 200 millions de dollars avec le Département de la Défense, souligne son engagement envers une utilisation éthique de l'IA.

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

Rapporté par l'IA

L'application Claude AI d'Anthropic a atteint la première place du classement des applications gratuites de l'App Store d'Apple, dépassant ChatGPT et Gemini, portée par le soutien du public après l'interdiction fédérale du président Trump sur l'outil en raison des refus d'Anthropic en matière de sécurité IA.

Anthropic a lancé un plugin juridique pour son outil Claude Cowork, suscitant des inquiétudes parmi les fournisseurs d'IA juridique dédiés. Le plugin offre des fonctionnalités utiles pour l'examen des contrats et la conformité, mais reste en deçà du remplacement des plateformes spécialisées. Les entreprises sud-africaines font face à des obstacles supplémentaires en raison des réglementations sur la protection des données.

Rapporté par l'IA

Un commentaire de CNET soutient que décrire l’IA comme dotée de qualités humaines telles que des âmes ou des confessions égare le public et érode la confiance dans la technologie. Il met en lumière comment des entreprises comme OpenAI et Anthropic utilisent un tel langage, qui occulte les vrais problèmes comme les biais et la sécurité. L’article plaide pour une terminologie plus précise afin de favoriser une compréhension exacte.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser