米国防長官ピート・ヘグセスがAnthropicに対し、軍にClaude AIモデルへの無制限アクセスを認めなければ厳しい罰則を科すと脅迫。最後通牒は火曜日のダリオ・アモデイCEOとのワシントン会合で出され、AnthropicのResponsible Scaling Policy緩和発表と重なった。変更は厳格な安全トリガーから競争圧力下の柔軟なリスク評価へ移行。
2026年2月25日、米国防長官ピート・ヘグセスはAnthropic CEOダリオ・アモデイをワシントンに召喚し、同社のAI使用ポリシーを議論。ヘグセスはClaudeモデルをすべての合法的な軍事用途で使用可能にし、大量監視や人間監督なしの致死ミッションなどの敏感領域を含むよう要求。Anthropicは現行AIモデルの信頼性に懸念を表明し、政府契約に標準使用ポリシーを適用する一方、自動兵器や人関与なしの国内監視を禁止する代替案を提示。ヘグセスは2月27日金曜日を期限とし、遵守しなければDefense Production Act発動、Anthropicをサプライチェーンリスク指定、国防総省契約排除を警告。同社はペンタゴンと2億ドルの契約を持ち、Claudeは2026年1月のパランティアとの協力によるベネズエラ指導者ニコラス・マドゥロ捕獲などの機密作戦で使用された。同日、AnthropicはResponsible Scaling Policyを修正し、安全保証なしのモデル訓練停止という厳格コミットメントから離脱。更新ポリシーは相対的アプローチを採用し、リスク報告と最先端安全ロードマップで透明性を強調。Anthropicは競争的AI環境の「集団行動問題」を挙げ、一方的な停止は責任ある開発者を不利にし、無対策の他者が進むと指摘。首席科学責任者ジャレッド・カプランは「AIモデル訓練を止めたところで誰も助からないと思った」と述べ、業界進展の速さを強調。METRのクリス・ペインターは変化を理解可能としながら、「カエルを茹でる」効果の可能性を警告し、柔軟安全策が徐々に侵食される恐れを指摘。Anthropicは国家安全保障を責任を持って支援する善意の協議を続けている。ペンタゴンはOpenAI、Google、xAIなどのライバルとも軍事システム統合交渉中。