サンフランシスコの連邦地方裁判所は2026年3月27日、トランプ政権によるAI企業Anthropic社への「軍事サプライチェーンリスク」指定を一時的に差し止める仮処分を決定した。この指定は、自律型兵器などの軍事利用に向けた同社のAIモデル「Claude」の制限を巡る対立の最中、3週間前に行われていた。
3月4日に国防総省がAnthropic社を「サプライチェーンリスク」に指定した背景には、完全自律型兵器や大規模監視へのClaudeの利用制限を巡る契約交渉の決裂があった。これに対し、リタ・リン連邦地方判事は、この措置を「恣意的かつ気まぐれ」であり、「典型的な憲法修正第1条への報復」であると判断した。
この指定が適用されれば、安全性への配慮を強調するシリコンバレーのAI企業である同社との政府契約が制限されることになっていた。リン判事は42ページにわたる決定文の中で、さらなる審査が行われるまでの間、この指定の執行を停止した。
エミル・マイケル陸軍次官はソーシャルメディア上で、この判決には事実誤認があり、紛争下で拙速に行われ、大統領の最高司令官としての役割を損なうものだと批判し、「恥ずべきこと」と述べた。ピート・ヘグセス陸軍長官は以前、技術の軍事利用についてベンダー側が指図することはできないと主張していた。
Anthropic社のダリオ・アモデイCEOは、法的措置で対抗する意向を示していた。リン判事は、反ユダヤ主義への懸念を巡るUCLAの資金削減を差し止めた件など、関連する訴訟の経験がある。
今回の判決は、AI企業の倫理的制限と国家安全保障上の要求との間で続く緊張を浮き彫りにした。本記事は「Anthropic社サプライチェーンリスク論争」シリーズの一部である。