連邦判事、Anthropic社に対する国防総省の「サプライチェーンリスク」指定を差し止め

サンフランシスコの連邦地方裁判所は2026年3月27日、トランプ政権によるAI企業Anthropic社への「軍事サプライチェーンリスク」指定を一時的に差し止める仮処分を決定した。この指定は、自律型兵器などの軍事利用に向けた同社のAIモデル「Claude」の制限を巡る対立の最中、3週間前に行われていた。

3月4日に国防総省がAnthropic社を「サプライチェーンリスク」に指定した背景には、完全自律型兵器や大規模監視へのClaudeの利用制限を巡る契約交渉の決裂があった。これに対し、リタ・リン連邦地方判事は、この措置を「恣意的かつ気まぐれ」であり、「典型的な憲法修正第1条への報復」であると判断した。

この指定が適用されれば、安全性への配慮を強調するシリコンバレーのAI企業である同社との政府契約が制限されることになっていた。リン判事は42ページにわたる決定文の中で、さらなる審査が行われるまでの間、この指定の執行を停止した。

エミル・マイケル陸軍次官はソーシャルメディア上で、この判決には事実誤認があり、紛争下で拙速に行われ、大統領の最高司令官としての役割を損なうものだと批判し、「恥ずべきこと」と述べた。ピート・ヘグセス陸軍長官は以前、技術の軍事利用についてベンダー側が指図することはできないと主張していた。

Anthropic社のダリオ・アモデイCEOは、法的措置で対抗する意向を示していた。リン判事は、反ユダヤ主義への懸念を巡るUCLAの資金削減を差し止めた件など、関連する訴訟の経験がある。

今回の判決は、AI企業の倫理的制限と国家安全保障上の要求との間で続く緊張を浮き彫りにした。本記事は「Anthropic社サプライチェーンリスク論争」シリーズの一部である。

関連記事

Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
AIによって生成された画像

ペンタゴン、クロードAIの軍事利用制限をめぐる対立後、アンスロピックを「サプライチェーンリスク」と指定

AIによるレポート AIによって生成された画像 事実確認済み

ペンタゴンは、AI企業アンスロピックに対し、同社を「サプライチェーンリスク」とみなす正式な通知を行った。批評家によると、この珍しい指定は通常、敵対国関連の技術を対象とするものである。この措置は、米軍がアンスロピックのClaudeモデルをすべての合法的な目的で使用できるかどうかについての交渉が決裂したことを受けたもので、同社は完全自律型兵器や大規模な国内監視を防ぐために契約上の制限が必要だと主張している。

Anthropic has filed a federal lawsuit against the US Department of Defense, challenging its recent label of the AI company as a supply-chain risk. The dispute stems from a contract disagreement over the use of Anthropic's Claude AI for military purposes, including restrictions on mass surveillance and autonomous weapons. The company argues the designation violates free speech and due process rights.

AIによるレポート

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

GoogleとOpenAIの数百人の従業員がAnthropicへの連帯を示す公開書簡に署名し、自社企業に対し、国防総省のAIモデル軍事利用無制限要求に抵抗するよう促した。書簡は国内大量監視や人間の監督なしの自律的殺傷を伴う用途に反対する。米国防長官ピート・ヘグセスによるAnthropicをサプライチェーンリスクとみなす脅しの中で起きている。

AIによるレポート

Anthropic has launched the Anthropic Institute, a new research initiative, and opened its first Public Policy office in Washington, DC, this spring. These steps follow the AI company's recent federal lawsuit against the US government over a Defense Department supply chain risk designation tied to a contract dispute.

Elon Musk's xAI lost its bid for a preliminary injunction to block California's Assembly Bill 2013, which requires AI firms to disclose training data details. US District Judge Jesus Bernal ruled that xAI failed to demonstrate the law reveals trade secrets or causes irreparable harm. The company must now comply with the law, effective since January, while the lawsuit proceeds.

AIによるレポート

トランプ政権は、連邦政府のAI規則を統一し、国家安全保障上の懸念に対処し、この分野で支配力を強める北京に対抗するため、国家AI立法枠組みを発表した。州法が連邦政府により適した分野を管理したり、世界的なAIのリーダーシップを目指す米国の戦略と矛盾したりすべきではないと主張している。ホワイトハウスは、議会と協力してこの法案を成立させることを期待している。

 

 

 

このウェブサイトはCookieを使用します

サイトを改善するための分析にCookieを使用します。詳細については、プライバシーポリシーをお読みください。
拒否