Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
AIによって生成された画像

米国防総省、クロードの軍事利用に関する人類学的制限に異論、契約交渉は難航か

AIによって生成された画像
事実確認済み

Anthropic社のダリオ・アモデイCEOが2月下旬、同社のクロード・モデルを国内の大規模監視や完全自律型兵器に使用することは許可しないと述べた後、国防総省の高官は、AIを国内の監視に使用するつもりはないと述べ、民間企業が米軍のAIツールの使用方法に拘束力のある制限を設けることはできないと主張した。

昨年7月、米国防総省のダグ・マティ最高デジタル・人工知能担当官は、国防総省のミッションに高度なAIモデルを提供するため、Anthropic、Google、OpenAI、xAIの4つのテック企業に対し、それぞれ最大2億ドルの契約締結を発表した。マティ氏は、国防総省は「戦闘領域」における「統合任務必須タスク」のために商用AIの採用を加速させるつもりだと述べたが、国防総省は国家安全保障を理由に、運用の詳細をほとんど公表しなかった。

この比較的不透明な賞は、2月末にAnthropic社が "限られたケース "におけるクロードの制限を主張していると発表したことで、新たな注目を集めた。アモデイは2月26日の声明で、米国や他の民主主義国家の防衛のためにAIを使用することを強く支持すると述べた。しかし、「大量の国内監視」や「完全自律型兵器(自己誘導型戦闘ドローン)」など、民主主義の価値を損なう可能性のある用途もあると主張した。

これに対して国防総省の高官たちは、その前提にも同社の影響力にも反発している。The Nation』紙が引用した報道によると、国防総省高官は、AIを国内監視に使うつもりはなく、無人兵器システムは人間の監視下に置かれると述べた。しかし、彼らはまた、請負業者が国防総省の業務に独自の市民的自由条件を課すことはできないと主張した。国防次官のエミール・マイケル(研究・工学担当)は、次のように述べた:「ビッグテック企業にアメリカ人の市民的自由を決めさせるつもりはない。

The Nation』紙によれば、交渉中、マイケルは、ミサイル防衛などの核関連任務におけるクロードの使用にアントロピックが反対するかどうかという別の質問も投げかけ、アモデイはその使用には反対しなかったという。

この論争は、国防総省が知能、標的、兵器開発にジェネレーティブAIを統合しようとしていることと、AI企業が誤用を防ぐために必要だと言っているガードレールとの間の、より広い緊張関係を浮き彫りにした。The Nation紙は、AIを使ってドローンの映像を分析し、潜在的な標的を見つけることから始まったProject Mavenや、DARPA(国防高等研究計画局)のCODE(Collaborative Operations in Denied Environment)イニシアティブのような国防総省の長年の取り組みを指摘した。

自律性に関する米国防総省の公式方針は、国防総省指令3000.09にまとめられている。同指令では、自律・半自律兵器は、指揮官やオペレーターが「武力行使に対する適切なレベルの人間の判断」を行使できるように設計されるべきであると述べている。批評家たちは、この方針の柔軟性は、リアルタイムでの人間による制御を著しく低下させる可能性のある自律化の余地をまだ残していると主張している。

AIが軍事計画や作戦に統合されるにつれ、人間工学と国防総省の対立は、米軍のAI拡大の中心にある未解決の問題を浮き彫りにしている。つまり、商業システムの急速な採用と、国内の監視や機械への殺傷力の委譲に対する強制力のある制限の要求とを、どのように調和させるかという問題である。

人々が言っていること

Xの議論は、クロードAIの制限をめぐるペンタゴンとAnthropicの論争についての分裂を明らかにした。アンソロピックの支持者は、国防総省のブラックリストを行き過ぎた行為とみなし、大量監視や自律型兵器に反対する倫理的姿勢を称賛している。批評家は、民間企業は軍事利用に制限を課すことはできず、単純な契約条項で十分だと主張する。中立的な投稿は、対立、期限、法的エスカレーションを詳述し、OpenAIのコンプライアンスとは対照的である。ジャーナリストやアナリストによる、国家安全保障とAIの安全性の緊張関係を浮き彫りにするような記事もある。

関連記事

Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
AIによって生成された画像

Pentagon designates Anthropic a ‘supply chain risk’ after dispute over military use limits for Claude AI

AIによるレポート AIによって生成された画像 事実確認済み

The Pentagon has formally notified AI company Anthropic that it is deemed a “supply chain risk,” a rare designation that critics say is typically aimed at adversary-linked technology. The move follows a breakdown in negotiations over whether the U.S. military can use Anthropic’s Claude models for all lawful purposes, versus contractual limits the company says are needed to prevent fully autonomous weapons and mass domestic surveillance.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

AIによるレポート

Anthropic's CEO Dario Amodei stated that the company will not comply with the Pentagon's request to remove safeguards from its AI models, despite threats of exclusion from defense systems. The dispute centers on preventing the AI's use in autonomous weapons and domestic surveillance. The firm, which has a $200 million contract with the Department of Defense, emphasizes its commitment to ethical AI use.

Artificial intelligence (AI) has emerged at the center of modern warfare, playing an operational support role in the recent U.S.-Israeli strike on Iran. Anthropic's Claude and Palantir's Gotham were used for intelligence assessments and target identification. Experts predict further expansion of AI in military applications.

AIによるレポート

Anthropic has limited access to its Claude Mythos Preview AI model due to its superior ability to detect and exploit software vulnerabilities, while launching Project Glasswing—a consortium with over 45 tech firms including Apple, Google, and Microsoft—to collaboratively patch flaws and bolster defenses. The announcement follows recent data leaks at the firm.

Anthropic has launched the Anthropic Institute, a new research initiative, and opened its first Public Policy office in Washington, DC, this spring. These steps follow the AI company's recent federal lawsuit against the US government over a Defense Department supply chain risk designation tied to a contract dispute.

AIによるレポート

Following last week's unveiling that sparked global alarms, Anthropic has restricted its powerful Mythos AI—adept at finding cybersecurity vulnerabilities—to select firms under Project Glasswing, including Amazon Web Services, Apple, and Google, after an accidental leak raised national security concerns.

 

 

 

このウェブサイトはCookieを使用します

サイトを改善するための分析にCookieを使用します。詳細については、プライバシーポリシーをお読みください。
拒否