Anthropic lance un institut de recherche et un bureau de politique à DC au milieu d’un litige gouvernemental

Anthropic a lancé l’Anthropic Institute, une nouvelle initiative de recherche, et ouvert son premier bureau de politique publique à Washington, DC, ce printemps. Ces mesures font suite au récent procès fédéral intenté par l’entreprise d’IA contre le gouvernement américain concernant une désignation de risque dans la chaîne d’approvisionnement du Département de la Défense liée à un différend contractuel.

S’appuyant sur son procès du 9 mars contestant l’étiquette de risque dans la chaîne d’approvisionnement du Département de la Défense des États-Unis — découlant du refus d’Anthropic de lever les salvaguardes sur son IA Claude pour un usage militaire —, l’entreprise a annoncé des expansions en matière de politique et de recherche.  Anthropic triple la taille de son équipe de politique publique et établit son premier bureau à DC ce printemps, selon Axios. Sarah Heck, nouvelle responsable des affaires extérieures, dirigera les efforts de politique, succédant au cofondateur Jack Clark, qui passe à responsable du bénéfice public supervisant l’Anthropic Institute.  L’institut consolidera et étendra des groupes existants : le Frontier Red Team (tests de stress de l’IA), l’équipe Societal Impacts (applications dans le monde réel), et l’équipe Economic Research (effets sur l’emploi/économie). Il vise à partager des analyses sur les défis de l’IA, y compris la restructuration économique et les nouveaux risques. Les membres fondateurs incluent Matt Botvinick (ex-Google DeepMind) et Zoë Hitzig (ex-OpenAI).  Lors d’une audience judiciaire connexe, Anthropic a demandé des garanties contre d’autres sanctions de l’administration Trump, qui a refusé. Des sources indiquent un possible nouveau décret exécutif de la Maison Blanche visant l’entreprise.

Articles connexes

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Image générée par IA

Anthropic sues US defense department over supply chain risk designation

Rapporté par l'IA Image générée par IA

Anthropic has filed a federal lawsuit against the US Department of Defense, challenging its recent label of the AI company as a supply-chain risk. The dispute stems from a contract disagreement over the use of Anthropic's Claude AI for military purposes, including restrictions on mass surveillance and autonomous weapons. The company argues the designation violates free speech and due process rights.

The UK Department for Science, Innovation and Technology has proposed that Anthropic expand its London office and pursue a potential dual stock listing, according to a Financial Times report. This effort follows a dispute between the San Francisco-based AI company and the US Department of Defense. Officials aim to attract Anthropic amid ongoing tensions.

Rapporté par l'IA

Following last week's federal ban on its AI tools, Anthropic has resumed negotiations with the US Defense Department to avert a supply chain risk designation. Meanwhile, OpenAI's parallel military agreement is under fire from employees, rivals, and Anthropic CEO Dario Amodei, who accused it of misleading claims in a leaked memo.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Rapporté par l'IA

Anthropic's CEO Dario Amodei stated that the company will not comply with the Pentagon's request to remove safeguards from its AI models, despite threats of exclusion from defense systems. The dispute centers on preventing the AI's use in autonomous weapons and domestic surveillance. The firm, which has a $200 million contract with the Department of Defense, emphasizes its commitment to ethical AI use.

Following last week's unveiling that sparked global alarms, Anthropic has restricted its powerful Mythos AI—adept at finding cybersecurity vulnerabilities—to select firms under Project Glasswing, including Amazon Web Services, Apple, and Google, after an accidental leak raised national security concerns.

Rapporté par l'IA

Anthropic announced on Wednesday the launch of Claude Managed Agents, a new product aimed at simplifying the creation and deployment of AI agents for businesses. The tool provides developers with ready-made infrastructure to build autonomous AI systems. It addresses a key barrier in automating work tasks amid the company's rapid enterprise growth.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser