Anthropic社のダリオ・アモデイCEOが2月下旬、同社のクロード・モデルを国内の大規模監視や完全自律型兵器に使用することは許可しないと述べた後、国防総省の高官は、AIを国内の監視に使用するつもりはないと述べ、民間企業が米軍のAIツールの使用方法に拘束力のある制限を設けることはできないと主張した。
昨年7月、米国防総省のダグ・マティ最高デジタル・人工知能担当官は、国防総省のミッションに高度なAIモデルを提供するため、Anthropic、Google、OpenAI、xAIの4つのテック企業に対し、それぞれ最大2億ドルの契約締結を発表した。マティ氏は、国防総省は「戦闘領域」における「統合任務必須タスク」のために商用AIの採用を加速させるつもりだと述べたが、国防総省は国家安全保障を理由に、運用の詳細をほとんど公表しなかった。
この比較的不透明な賞は、2月末にAnthropic社が "限られたケース "におけるクロードの制限を主張していると発表したことで、新たな注目を集めた。アモデイは2月26日の声明で、米国や他の民主主義国家の防衛のためにAIを使用することを強く支持すると述べた。しかし、「大量の国内監視」や「完全自律型兵器(自己誘導型戦闘ドローン)」など、民主主義の価値を損なう可能性のある用途もあると主張した。
これに対して国防総省の高官たちは、その前提にも同社の影響力にも反発している。The Nation』紙が引用した報道によると、国防総省高官は、AIを国内監視に使うつもりはなく、無人兵器システムは人間の監視下に置かれると述べた。しかし、彼らはまた、請負業者が国防総省の業務に独自の市民的自由条件を課すことはできないと主張した。国防次官のエミール・マイケル(研究・工学担当)は、次のように述べた:「ビッグテック企業にアメリカ人の市民的自由を決めさせるつもりはない。
The Nation』紙によれば、交渉中、マイケルは、ミサイル防衛などの核関連任務におけるクロードの使用にアントロピックが反対するかどうかという別の質問も投げかけ、アモデイはその使用には反対しなかったという。
この論争は、国防総省が知能、標的、兵器開発にジェネレーティブAIを統合しようとしていることと、AI企業が誤用を防ぐために必要だと言っているガードレールとの間の、より広い緊張関係を浮き彫りにした。The Nation紙は、AIを使ってドローンの映像を分析し、潜在的な標的を見つけることから始まったProject Mavenや、DARPA(国防高等研究計画局)のCODE(Collaborative Operations in Denied Environment)イニシアティブのような国防総省の長年の取り組みを指摘した。
自律性に関する米国防総省の公式方針は、国防総省指令3000.09にまとめられている。同指令では、自律・半自律兵器は、指揮官やオペレーターが「武力行使に対する適切なレベルの人間の判断」を行使できるように設計されるべきであると述べている。批評家たちは、この方針の柔軟性は、リアルタイムでの人間による制御を著しく低下させる可能性のある自律化の余地をまだ残していると主張している。
AIが軍事計画や作戦に統合されるにつれ、人間工学と国防総省の対立は、米軍のAI拡大の中心にある未解決の問題を浮き彫りにしている。つまり、商業システムの急速な採用と、国内の監視や機械への殺傷力の委譲に対する強制力のある制限の要求とを、どのように調和させるかという問題である。