Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
AIによって生成された画像

米国防総省、クロードの軍事利用に関する人類学的制限に異論、契約交渉は難航か

AIによって生成された画像
事実確認済み

Anthropic社のダリオ・アモデイCEOが2月下旬、同社のクロード・モデルを国内の大規模監視や完全自律型兵器に使用することは許可しないと述べた後、国防総省の高官は、AIを国内の監視に使用するつもりはないと述べ、民間企業が米軍のAIツールの使用方法に拘束力のある制限を設けることはできないと主張した。

昨年7月、米国防総省のダグ・マティ最高デジタル・人工知能担当官は、国防総省のミッションに高度なAIモデルを提供するため、Anthropic、Google、OpenAI、xAIの4つのテック企業に対し、それぞれ最大2億ドルの契約締結を発表した。マティ氏は、国防総省は「戦闘領域」における「統合任務必須タスク」のために商用AIの採用を加速させるつもりだと述べたが、国防総省は国家安全保障を理由に、運用の詳細をほとんど公表しなかった。

この比較的不透明な賞は、2月末にAnthropic社が "限られたケース "におけるクロードの制限を主張していると発表したことで、新たな注目を集めた。アモデイは2月26日の声明で、米国や他の民主主義国家の防衛のためにAIを使用することを強く支持すると述べた。しかし、「大量の国内監視」や「完全自律型兵器(自己誘導型戦闘ドローン)」など、民主主義の価値を損なう可能性のある用途もあると主張した。

これに対して国防総省の高官たちは、その前提にも同社の影響力にも反発している。The Nation』紙が引用した報道によると、国防総省高官は、AIを国内監視に使うつもりはなく、無人兵器システムは人間の監視下に置かれると述べた。しかし、彼らはまた、請負業者が国防総省の業務に独自の市民的自由条件を課すことはできないと主張した。国防次官のエミール・マイケル(研究・工学担当)は、次のように述べた:「ビッグテック企業にアメリカ人の市民的自由を決めさせるつもりはない。

The Nation』紙によれば、交渉中、マイケルは、ミサイル防衛などの核関連任務におけるクロードの使用にアントロピックが反対するかどうかという別の質問も投げかけ、アモデイはその使用には反対しなかったという。

この論争は、国防総省が知能、標的、兵器開発にジェネレーティブAIを統合しようとしていることと、AI企業が誤用を防ぐために必要だと言っているガードレールとの間の、より広い緊張関係を浮き彫りにした。The Nation紙は、AIを使ってドローンの映像を分析し、潜在的な標的を見つけることから始まったProject Mavenや、DARPA(国防高等研究計画局)のCODE(Collaborative Operations in Denied Environment)イニシアティブのような国防総省の長年の取り組みを指摘した。

自律性に関する米国防総省の公式方針は、国防総省指令3000.09にまとめられている。同指令では、自律・半自律兵器は、指揮官やオペレーターが「武力行使に対する適切なレベルの人間の判断」を行使できるように設計されるべきであると述べている。批評家たちは、この方針の柔軟性は、リアルタイムでの人間による制御を著しく低下させる可能性のある自律化の余地をまだ残していると主張している。

AIが軍事計画や作戦に統合されるにつれ、人間工学と国防総省の対立は、米軍のAI拡大の中心にある未解決の問題を浮き彫りにしている。つまり、商業システムの急速な採用と、国内の監視や機械への殺傷力の委譲に対する強制力のある制限の要求とを、どのように調和させるかという問題である。

人々が言っていること

Xの議論は、クロードAIの制限をめぐるペンタゴンとAnthropicの論争についての分裂を明らかにした。アンソロピックの支持者は、国防総省のブラックリストを行き過ぎた行為とみなし、大量監視や自律型兵器に反対する倫理的姿勢を称賛している。批評家は、民間企業は軍事利用に制限を課すことはできず、単純な契約条項で十分だと主張する。中立的な投稿は、対立、期限、法的エスカレーションを詳述し、OpenAIのコンプライアンスとは対照的である。ジャーナリストやアナリストによる、国家安全保障とAIの安全性の緊張関係を浮き彫りにするような記事もある。

関連記事

Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
AIによって生成された画像

ペンタゴン、クロードAIの軍事利用制限をめぐる対立後、アンスロピックを「サプライチェーンリスク」と指定

AIによるレポート AIによって生成された画像 事実確認済み

ペンタゴンは、AI企業アンスロピックに対し、同社を「サプライチェーンリスク」とみなす正式な通知を行った。批評家によると、この珍しい指定は通常、敵対国関連の技術を対象とするものである。この措置は、米軍がアンスロピックのClaudeモデルをすべての合法的な目的で使用できるかどうかについての交渉が決裂したことを受けたもので、同社は完全自律型兵器や大規模な国内監視を防ぐために契約上の制限が必要だと主張している。

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

AIによるレポート

Anthropic's CEO Dario Amodei stated that the company will not comply with the Pentagon's request to remove safeguards from its AI models, despite threats of exclusion from defense systems. The dispute centers on preventing the AI's use in autonomous weapons and domestic surveillance. The firm, which has a $200 million contract with the Department of Defense, emphasizes its commitment to ethical AI use.

ドナルド・トランプ米大統領は金曜日、Anthropicとの業務を停止するよう政府機関に指示したと述べた。国防総省は同スタートアップをサプライチェーンリスクと宣言する方針で、これは技術ガードレールに関する対立後の大きな打撃となる。Anthropicの製品を使用する機関には6カ月の移行期間が設けられる。

AIによるレポート

AnthropicのClaude AIアプリがAppleのApp Store無料アプリランキングでトップに躍り出た。ChatGPTとGeminiを抜き、Trump大統領がAnthropicのAI安全基準拒否を理由に同ツールを連邦政府で禁止した後の公衆支持が後押しした。

Anthropic has launched a legal plugin for its Claude Cowork tool, prompting concerns among dedicated legal AI providers. The plugin offers useful features for contract review and compliance but falls short of replacing specialized platforms. South African firms face additional hurdles due to data protection regulations.

AIによるレポート

CNETの論評は、AIを魂や告白などの人間らしい品質を持つと描写することは公衆を誤解させ技術への信頼を損なうと主張する。OpenAIやAnthropicなどの企業がそのような表現を使用し、バイアスや安全性などの実問題を隠蔽している点を指摘。より正確な用語使用で正しい理解を促すよう呼びかけている。

 

 

 

このウェブサイトはCookieを使用します

サイトを改善するための分析にCookieを使用します。詳細については、プライバシーポリシーをお読みください。
拒否