Des employés de Google et OpenAI signent une lettre soutenant Anthropic contre le Pentagone

Des centaines d'employés de Google et OpenAI ont signé une lettre ouverte en solidarité avec Anthropic, exhortant leurs entreprises à résister aux exigences du Pentagone pour un usage militaire sans restriction des modèles d'IA. La lettre s'oppose aux usages impliquant une surveillance de masse domestique et des tueries autonomes sans supervision humaine. Cela survient au milieu de menaces du secrétaire à la Défense américain Pete Hegseth de qualifier Anthropic de risque pour la chaîne d'approvisionnement.

La lettre ouverte, intitulée « Nous ne serons pas divisés », appelle les dirigeants de Google et OpenAI à se tenir unis contre les demandes du Pentagone. Elle refuse spécifiquement les exigences d'utiliser des modèles d'IA comme Claude d'Anthropic pour une surveillance de masse domestique et des tueries autonomes sans supervision humaine. Le PDG d'Anthropic, Dario Amodei, a déclaré que ce sont des lignes qu'aucune entreprise d'IA ne devrait franchir.  Le 27 février 2026, la lettre a recueilli plus de 450 signatures, avec près de 400 d'employés de Google et le reste d'OpenAI. Environ 50 % des signataires ont choisi d'attacher leurs noms publiquement, tandis que les autres sont restés anonymes. Toutes les signatures sont vérifiées comme provenant d'employés actuels des deux entreprises. Les organisateurs, qui ne sont affiliés à aucune entreprise d'IA, parti politique ou groupe de plaidoyer, ont initié l'effort de manière indépendante.  Ce développement fait partie d'une confrontation en cours entre Anthropic et le secrétaire à la Défense américain Pete Hegseth. Hegseth a menacé de désigner Anthropic comme un « risque pour la chaîne d'approvisionnement » à moins qu'il ne retire certaines garde-fous pour des travaux classifiés. Le Pentagone négocie avec Google et OpenAI sur des utilisations similaires de leurs modèles à des fins classifiées, et xAI a rejoint ces discussions plus tôt dans la semaine. La lettre affirme que le gouvernement tente de diviser les entreprises en instillant la peur que d'autres pourraient se conformer.  Le PDG d'OpenAI, Sam Altman, a abordé la question dans un mémo interne, déclarant que son entreprise maintiendra les mêmes lignes rouges qu'Anthropic. Dans une interview CNBC le même jour, Altman a exprimé qu'il ne pense pas que le Pentagone devrait menacer d'invoquer des mesures de la Defense Production Act contre ces entreprises. Séparément, Amodei a réaffirmé la position d'Anthropic, disant : « Nous ne pouvons pas en toute bonne conscience accéder à leur demande. »

Articles connexes

Split-scene illustration of Anthropic's renewed Pentagon talks contrasting with backlash against OpenAI's military AI deal.
Image générée par IA

Anthropic resumes Pentagon talks as OpenAI military deal faces backlash

Rapporté par l'IA Image générée par IA

Following last week's federal ban on its AI tools, Anthropic has resumed negotiations with the US Defense Department to avert a supply chain risk designation. Meanwhile, OpenAI's parallel military agreement is under fire from employees, rivals, and Anthropic CEO Dario Amodei, who accused it of misleading claims in a leaked memo.

Anthropic's CEO Dario Amodei stated that the company will not comply with the Pentagon's request to remove safeguards from its AI models, despite threats of exclusion from defense systems. The dispute centers on preventing the AI's use in autonomous weapons and domestic surveillance. The firm, which has a $200 million contract with the Department of Defense, emphasizes its commitment to ethical AI use.

Rapporté par l'IA

Anthropic has filed a federal lawsuit against the US Department of Defense, challenging its recent label of the AI company as a supply-chain risk. The dispute stems from a contract disagreement over the use of Anthropic's Claude AI for military purposes, including restrictions on mass surveillance and autonomous weapons. The company argues the designation violates free speech and due process rights.

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

Rapporté par l'IA

Anthropic has launched the Anthropic Institute, a new research initiative, and opened its first Public Policy office in Washington, DC, this spring. These steps follow the AI company's recent federal lawsuit against the US government over a Defense Department supply chain risk designation tied to a contract dispute.

Artificial intelligence (AI) has emerged at the center of modern warfare, playing an operational support role in the recent U.S.-Israeli strike on Iran. Anthropic's Claude and Palantir's Gotham were used for intelligence assessments and target identification. Experts predict further expansion of AI in military applications.

Rapporté par l'IA

OpenAI is shifting resources toward improving its flagship chatbot ChatGPT, leading to the departure of several senior researchers. The San Francisco company faces intense competition from Google and Anthropic, prompting a strategic pivot from long-term research. This change has raised concerns about the future of innovative AI exploration at the firm.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser