英AI安全研究所、Anthropicの「Mythos」モデルを用いたサイバー攻撃試験を実施

英国政府のAI安全研究所(AISI)は、Anthropic社のAIモデル「Mythos Preview」の評価結果を発表し、多段階のサイバー攻撃における高い能力を確認した。Mythosは、「The Last Ones」と呼ばれる難易度の高い32段階のネットワーク攻撃シミュレーションを完全に完了した初のモデルとなった。同研究所は、現実世界の防御機構がこうした自動化された脅威を制限する可能性があると警告している。

Anthropicは先週、Mythos Previewモデルの初期リリースについて、その高度なコンピュータセキュリティ能力を理由に、重要な業界パートナーの一部のみに限定した。英国のAI安全研究所(AISI)は、AIのサイバー攻撃の潜在能力を評価するために設計された「Capture the Flag(旗取りゲーム)」形式の課題を用いて独立した試験を行った。2023年初頭から続いているこれらの評価によると、Mythosは初級レベルのタスクの85%以上を完了しており、GPT-5.4、Opus 4.6、Codex 5.3といった最近のモデルと同等の性能を示している。AISIによれば、Mythosは個別のタスクでは競合モデルと遜色ないものの、それらを連鎖させて複雑なオペレーションを実行する点において際立っている。Anthropicのモデルは、20時間分の人間による作業をシミュレートし、複数のホストにまたがる「The Last Ones (TLO)」と呼ばれる32段階のデータ抽出攻撃を完全に成功させた。10回の試行のうち3回で最初から最後まで課題を完了し、平均22ステップを記録、これはClaude 4.6の平均16ステップを大きく上回っている。AISIは、この結果がMythosが初期ネットワークアクセスを得た後の、防御の弱い小規模企業システムを自律的に標的にできる可能性を示唆していると指摘した。一方で、発電所の制御を妨害する7ステップの「Cooling Tower」テストでは苦戦した。同研究所は、今回のテストには1億トークンの予算が使用されており、現実世界のようなアクティブな防御者や検知メカニズムは存在しないと強調した。AISIは、十分に防御されたシステムであればこうした攻撃を阻止できる可能性があるとし、モデルの進化に合わせて防御を強化するためにAIを活用するよう促している。

関連記事

Illustration of Anthropic restricting Claude Mythos AI and launching Project Glasswing consortium with tech giants to address cybersecurity vulnerabilities.
AIによって生成された画像

AnthropicがAI「Claude Mythos」の公開を制限、サイバーセキュリティリスク対策「Project Glasswing」を始動

AIによるレポート AIによって生成された画像

Anthropic社は、同社のAIモデル「Claude Mythos Preview」について、ソフトウェアの脆弱性を検出し悪用する能力が極めて高いためアクセスを制限すると発表した。同時に、Apple、Google、Microsoftなど45社以上のテクノロジー企業と連携し、脆弱性の修正と防御強化を目指すコンソーシアム「Project Glasswing」を立ち上げた。今回の発表は、同社で相次いだデータ漏洩を受けたものとなる。

Anthropic社は、人間よりも速くソフトウェアの欠陥を検出し、悪用コードを生成可能なサイバーセキュリティに特化した新しいAIモデル「Mythos」を公開した。このモデルは、脆弱性が修正されるよりも速く攻撃の糸口をさらけ出すことでハッキングを加速させる恐れがあり、世界各国の政府や企業に警鐘を鳴らしている。各国の当局は、このリスクの評価に追われている。

AIによるレポート

In the wake of Anthropic's unveiling of its powerful Claude Mythos AI—capable of detecting and exploiting software vulnerabilities—the US Treasury Secretary has convened top bank executives to highlight escalating AI-driven cyber threats. The move underscores growing concerns as the AI is restricted to a tech coalition via Project Glasswing.

ペンタゴンは、AI企業アンスロピックに対し、同社を「サプライチェーンリスク」とみなす正式な通知を行った。批評家によると、この珍しい指定は通常、敵対国関連の技術を対象とするものである。この措置は、米軍がアンスロピックのClaudeモデルをすべての合法的な目的で使用できるかどうかについての交渉が決裂したことを受けたもので、同社は完全自律型兵器や大規模な国内監視を防ぐために契約上の制限が必要だと主張している。

AIによるレポート 事実確認済み

Anthropic社のダリオ・アモデイCEOが2月下旬、同社のクロード・モデルを国内の大規模監視や完全自律型兵器に使用することは許可しないと述べた後、国防総省の高官は、AIを国内の監視に使用するつもりはないと述べ、民間企業が米軍のAIツールの使用方法に拘束力のある制限を設けることはできないと主張した。

米大統領ドナルド・トランプ氏は、全連邦機関に対し、軍事用途をめぐる争いの中でAnthropicのAIツールの使用を即時停止するよう指示した。この措置は、Anthropicとペンタゴン当局者間の大量監視や自律兵器向けAI制限をめぐる数週間の衝突に続くものだ。6カ月の移行期間が発表された。

AIによるレポート

暗号セキュリティ企業がAIを使って、約40%のバリデータが使用するEthereumクライアントNethermindの高深刻度バグを検知。ネットワーク運用を混乱させる可能性があった欠陥は、悪用前に修正された。この進展は、AI生成コードの脆弱性に関する最近の懸念の中で、サイバーセキュリティにおけるAIの役割の拡大を強調している。

 

 

 

このウェブサイトはCookieを使用します

サイトを改善するための分析にCookieを使用します。詳細については、プライバシーポリシーをお読みください。
拒否