Anthropic launches research institute and DC policy office amid government lawsuit

Anthropic has launched the Anthropic Institute, a new research initiative, and opened its first Public Policy office in Washington, DC, this spring. These steps follow the AI company's recent federal lawsuit against the US government over a Defense Department supply chain risk designation tied to a contract dispute.

Building on its March 9 lawsuit challenging the US Defense Department's supply chain risk label—stemming from Anthropic's refusal to lift safeguards on its Claude AI for military use—the company announced expansions in policy and research.

Anthropic is tripling its Public Policy team size and establishing its first DC office this spring, as reported by Axios. Sarah Heck, new Head of External Affairs, will lead policy efforts, succeeding co-founder Jack Clark, who shifts to Head of Public Benefit overseeing the Anthropic Institute.

The institute will consolidate and expand existing groups: the Frontier Red Team (AI stress-testing), Societal Impacts team (real-world applications), and Economic Research team (job/economy effects). It aims to share insights on AI's challenges, including economic reshaping and new risks. Founding members include Matt Botvinick (ex-Google DeepMind) and Zoë Hitzig (ex-OpenAI).

In a related court hearing, Anthropic sought assurances against further penalties from the Trump administration, which declined. Sources indicate a potential new White House executive order targeting the company.

関連記事

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
AIによって生成された画像

Anthropic sues US defense department over supply chain risk designation

AIによるレポート AIによって生成された画像

Anthropic has filed a federal lawsuit against the US Department of Defense, challenging its recent label of the AI company as a supply-chain risk. The dispute stems from a contract disagreement over the use of Anthropic's Claude AI for military purposes, including restrictions on mass surveillance and autonomous weapons. The company argues the designation violates free speech and due process rights.

先週の連邦政府による自社AIツール使用禁止を受け、Anthropicはサプライチェーンリスク指定を回避するため米国防総省との交渉を再開した。一方、OpenAIの並行する軍事契約は従業員、競合他社、Anthropic CEOのDario Amodei氏から批判されており、彼は漏洩メモで誤解を招く主張だと非難した。

AIによるレポート 事実確認済み

ペンタゴンは、AI企業アンスロピックに対し、同社を「サプライチェーンリスク」とみなす正式な通知を行った。批評家によると、この珍しい指定は通常、敵対国関連の技術を対象とするものである。この措置は、米軍がアンスロピックのClaudeモデルをすべての合法的な目的で使用できるかどうかについての交渉が決裂したことを受けたもので、同社は完全自律型兵器や大規模な国内監視を防ぐために契約上の制限が必要だと主張している。

世界の投資家たちは人工知能分野での巨額技術投資のリターンを疑問視している。JefferiesのChristopher Wood氏は、進化するAI環境でAnthropicを際立った存在と位置づけている。AIブームは米国株式を押し上げたが、その持続可能性への懸念が高まっている。

AIによるレポート

AnthropicのCoWorkプラットフォームに対する最近の更新が、ソフトウェア業界で大きな市場反応を引き起こした。Fortuneによると、米国ソフトウェアセクターは広範な売却に見舞われ、1兆ドル超の価値を失った。この事態は、AIネイティブワークフローとSaaS株への影響に対する投資家の不確実性を浮き彫りにしている。

AnthropicのClaude AIアプリがAppleのApp Store無料アプリランキングでトップに躍り出た。ChatGPTとGeminiを抜き、Trump大統領がAnthropicのAI安全基準拒否を理由に同ツールを連邦政府で禁止した後の公衆支持が後押しした。

AIによるレポート

Anthropic's Claude Cowork AI tool has caused a sharp decline in stocks of Infosys, TCS, and other SaaS companies. These firms lost hundreds of billions of dollars in market value. The trigger is the rise of AI.

 

 

 

このウェブサイトはCookieを使用します

サイトを改善するための分析にCookieを使用します。詳細については、プライバシーポリシーをお読みください。
拒否