控訴裁判所、Anthropic社の供給網リスクに関するブラックリスト指定停止の申し立てを棄却

Anthropic社の供給網リスク問題をめぐる動きとして、米連邦控訴裁判所は4月9日、トランプ政権による同社のAI技術のブラックリスト指定の差し止めを求めた緊急申し立てを棄却した。裁判所は5月19日に口頭弁論を早めて設定したものの、衡平法の観点からは政府の主張が優先されるとの判断を下した。これは以前の地方裁判所による仮処分決定からの後退となる。

米コロンビア特別区連邦控訴裁判所は、トランプ政権によるAnthropic社の国家安全保障上の供給網リスク指定を停止することを拒否した。トランプ氏が指名したグレゴリー・カサス氏とネオミ・ラオ氏を含む共和党指名の裁判官3名で構成されるパネルは、経済的損失や修正第1条で保護された言論に対する報復といった、Anthropic社が被る回復不能な損害の可能性を認めたものの、言論萎縮の十分な証拠はないと判断し、軍事紛争下における政府の利益を優先した。

このブラックリスト入りは、Anthropic社が自社のAIモデル「Claude」を自律型兵器や米国市民の大量監視に利用させることを拒否したことに端を発している。トランプ大統領は連邦機関に対し、同社の技術使用停止を指示し、ピート・ヘグセス国防長官は軍事請負業者に対し、同社との取引を禁止した。トッド・ブランシュ司法長官代行は、この決定を「軍事即応態勢における決定的な勝利」と呼び、国防省(旧国防総省)に対する大統領の権限を強調した。

今回の決定は、3月27日にカリフォルニア州のリタ・リン連邦地方裁判所判事が出した仮処分に続くものである。同判事は、3月4日の当初の指定を恣意的かつ修正第1条に対する報復であるとして差し止めており、政権側は第9巡回区控訴裁判所に控訴している。Anthropic社は、今後の裁判でブラックリスト指定が違法であるとの判断が下されると確信しているとし、安全なAIの開発に対する取り組みを改めて表明した。コンピュータ通信産業協会(CCIA)は、こうした指定における手続き上の不備が米国のイノベーションを阻害する可能性があると警告している。

「Anthropic社供給網リスク論争」シリーズの一部。

関連記事

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
AIによって生成された画像

Anthropic sues US defense department over supply chain risk designation

AIによるレポート AIによって生成された画像

Anthropic has filed a federal lawsuit against the US Department of Defense, challenging its recent label of the AI company as a supply-chain risk. The dispute stems from a contract disagreement over the use of Anthropic's Claude AI for military purposes, including restrictions on mass surveillance and autonomous weapons. The company argues the designation violates free speech and due process rights.

A federal judge in San Francisco issued a preliminary injunction on March 27, 2026, blocking the Trump administration's designation of AI company Anthropic as a military supply chain risk—a label applied three weeks earlier amid disputes over the firm's limits on its Claude AI models for military uses like autonomous weapons.

AIによるレポート 事実確認済み

The Pentagon has formally notified AI company Anthropic that it is deemed a “supply chain risk,” a rare designation that critics say is typically aimed at adversary-linked technology. The move follows a breakdown in negotiations over whether the U.S. military can use Anthropic’s Claude models for all lawful purposes, versus contractual limits the company says are needed to prevent fully autonomous weapons and mass domestic surveillance.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

AIによるレポート

Hundreds of employees from Google and OpenAI have signed an open letter in solidarity with Anthropic, urging their companies to resist Pentagon demands for unrestricted military use of AI models. The letter opposes uses involving domestic mass surveillance and autonomous killing without human oversight. This comes amid threats from US Defense Secretary Pete Hegseth to label Anthropic a supply chain risk.

Anthropic has limited access to its Claude Mythos Preview AI model due to its superior ability to detect and exploit software vulnerabilities, while launching Project Glasswing—a consortium with over 45 tech firms including Apple, Google, and Microsoft—to collaboratively patch flaws and bolster defenses. The announcement follows recent data leaks at the firm.

AIによるレポート

Anthropic's recent update to its CoWork platform has led to significant market reactions in the software industry. The U.S. software sector saw a widespread sell-off, losing over $1 trillion in value, according to Fortune. This development highlights investor uncertainty around AI-native workflows and their impact on SaaS stocks.

 

 

 

このウェブサイトはCookieを使用します

サイトを改善するための分析にCookieを使用します。詳細については、プライバシーポリシーをお読みください。
拒否