Anthropic ne peut pas répondre à la demande du Pentagone sur les garde-fous de l'IA, dit le PDG

Le PDG d'Anthropic, Dario Amodei, a déclaré que l'entreprise ne se pliera pas à la demande du Pentagone de supprimer les garde-fous de ses modèles d'IA, malgré les menaces d'exclusion des systèmes de défense. Le différend porte sur la prévention de l'utilisation de l'IA dans des armes autonomes et la surveillance intérieure. L'entreprise, qui dispose d'un contrat de 200 millions de dollars avec le Département de la Défense, souligne son engagement envers une utilisation éthique de l'IA.

Anthropic, une startup d'IA soutenue par Google et Amazon, est en conflit avec le Département de la Défense des États-Unis concernant les garde-fous de sa technologie d'IA, en particulier son modèle Claude. Jeudi, le PDG Dario Amodei a annoncé que l'entreprise ne pouvait pas accéder aux exigences du Pentagone, qui incluent la suppression de restrictions empêchant l'IA d'être utilisée pour cibler des armes de manière autonome ou pour une surveillance intérieure massive aux États-Unis. Le Pentagone a un contrat avec Anthropic d'une valeur allant jusqu'à 200 millions de dollars. Cependant, le département insiste pour ne contracter qu'avec des entreprises d'IA autorisant « tout usage légal » de leur technologie, ce qui nécessite la suppression de tels garde-fous. Amodei a noté que des usages comme la surveillance de masse et les armes totalement autonomes n'ont jamais fait partie de leurs contrats et ne devraient pas l'être maintenant. Il a révélé des menaces du département de retirer Anthropic de ses systèmes, de la désigner comme risque dans la chaîne d'approvisionnement et d'invoquer le Defense Production Act pour imposer les changements. « Quoi qu'il en soit, ces menaces ne changent pas notre position : nous ne pouvons pas en toute bonne conscience accéder à leur demande », a déclaré Amodei. En réponse, le porte-parole du Pentagone Sean Parnell a publié sur X que le département n'a aucun intérêt à utiliser l'IA pour la surveillance de masse des Américains ou à développer des armes autonomes sans intervention humaine. « Voici ce que nous demandons : Autoriser le Pentagone à utiliser le modèle d'Anthropic pour tous les usages légaux », a dit Parnell. Le Pentagone n'a pas immédiatement répondu aux demandes de commentaires sur la déclaration d'Anthropic. Amodei a exprimé l'espoir que le département reconsidère sa position, compte tenu de la valeur de la technologie d'Anthropic pour les forces armées, et s'est offert à faciliter une transition en douceur si nécessaire. Un porte-parole d'Anthropic a ajouté que l'entreprise est prête à poursuivre les discussions et s'engage pour la continuité opérationnelle du Département et des combattants américains.

Articles connexes

Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Image générée par IA

Pentagon pressures Anthropic to weaken AI safety commitments

Rapporté par l'IA Image générée par IA

US Defense Secretary Pete Hegseth has threatened Anthropic with severe penalties unless the company grants the military unrestricted access to its Claude AI model. The ultimatum came during a meeting with CEO Dario Amodei in Washington on Tuesday, coinciding with Anthropic's announcement to relax its Responsible Scaling Policy. The changes shift from strict safety tripwires to more flexible risk assessments amid competitive pressures.

Anthropic has filed a federal lawsuit against the US Department of Defense, challenging its recent label of the AI company as a supply-chain risk. The dispute stems from a contract disagreement over the use of Anthropic's Claude AI for military purposes, including restrictions on mass surveillance and autonomous weapons. The company argues the designation violates free speech and due process rights.

Rapporté par l'IA Vérifié par des faits

After Anthropic CEO Dario Amodei said in late February that the company would not allow its Claude model to be used for mass domestic surveillance or fully autonomous weapons, senior Pentagon officials said they have no intention of using AI for domestic surveillance and insist that private firms cannot set binding limits on how the U.S. military employs AI tools.

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

Rapporté par l'IA

Anthropic has launched the Anthropic Institute, a new research initiative, and opened its first Public Policy office in Washington, DC, this spring. These steps follow the AI company's recent federal lawsuit against the US government over a Defense Department supply chain risk designation tied to a contract dispute.

Artificial intelligence (AI) has emerged at the center of modern warfare, playing an operational support role in the recent U.S.-Israeli strike on Iran. Anthropic's Claude and Palantir's Gotham were used for intelligence assessments and target identification. Experts predict further expansion of AI in military applications.

Rapporté par l'IA

Anthropic has announced that its AI chatbot Claude will remain free of advertisements, contrasting sharply with rival OpenAI's recent decision to test ads in ChatGPT. The company launched a Super Bowl ad campaign mocking AI assistants that interrupt conversations with product pitches. This move highlights growing tensions in the competitive AI landscape.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser