Aiモデルが危険な実験室実験を促進するリスク

研究者らは、主要なAIモデルが火災、爆発、または中毒を引き起こす危険な科学実験を奨励する可能性があると警告している。19の先進モデルに対する新たなテストでは、いずれもすべての安全問題を確実に特定できなかったことが明らかになった。改善が進んでいるものの、専門家らは実験室での人間の監督の必要性を強調している。

人工知能の科学的調査への統合は効率を約束するが、安全上の重大なリスクももたらすと、Nature Machine Intelligenceに掲載された研究が指摘している。インディアナ州のUniversity of Notre DameのXiangliang Zhang氏が主導したこの研究では、LabSafety Benchというベンチマークを開発し、765の多肢選択問題と404の画像シナリオでAIの実験室危険検知能力を評価した。 19の大型言語モデルとビジョン言語モデルをテストした結果、いずれのモデルも全体で70%を超える精度を達成しなかった。例えば、Vicunaは多肢選択セクションでほぼランダム推測並みの成績だった一方、GPT-4oは86.55%、DeepSeek-R1は84.49%を記録した。画像ベースのテストでは、InstructBlip-7Bのようなモデルが30%未満だった。 これらの欠陥は、過去の実験室事故を考えると特に懸念される。例えば、1997年の化学者Karen Wetterhahnのジメチル水銀暴露による死亡、2016年の爆発で研究者が腕を失った事故、2014年の部分失明を引き起こした事件などだ。 Zhang氏は自律型ラボへのAI展開に慎重だ。「今? 実験室で? そうは思わない」と彼女は言う。「それらは一般目的のタスク向けに訓練されたことが多く... これらの[実験室の危険]に関するドメイン知識がない。」 OpenAIの広報担当者は研究の価値を認めつつ、最新モデルが含まれていないと指摘した。「GPT-5.2はこれまでで最も優れた科学モデルで、推論、計画、誤り検知が大幅に強化されている」と述べ、人間による安全責任を強調した。 Brunel University LondonのAllan Tucker氏のような専門家は、実験設計での人間のアシスタントとしてのAIを提唱し、過度な依存を警告する。「人間が後ろに下がってスイッチを切り、適切な精査なしにAIに難しい仕事を任せる証拠がすでにあります」と彼は言う。 University of California, Los AngelesのCraig Merlic氏は、初期AIモデルが酸のこぼれに関する助言を誤処理した例を挙げつつ、改善が進んだと指摘。人間との直接比較を疑問視し、AIの急速な進化を指摘する:「この論文の数字はあと6カ月で完全に無効になるでしょう。」 この研究は、ラボでの広範な採用前にAI安全プロトコルを強化する緊急性を強調している。

関連記事

Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
AIによって生成された画像

ペンタゴンがAnthropicにAI安全コミットメントの弱体化を圧力

AIによるレポート AIによって生成された画像

米国防長官ピート・ヘグセスがAnthropicに対し、軍にClaude AIモデルへの無制限アクセスを認めなければ厳しい罰則を科すと脅迫。最後通牒は火曜日のダリオ・アモデイCEOとのワシントン会合で出され、AnthropicのResponsible Scaling Policy緩和発表と重なった。変更は厳格な安全トリガーから競争圧力下の柔軟なリスク評価へ移行。

大手企業の主要な人工知能モデルが、シミュレートされた戦争ゲームの95%で核兵器の配備を選択したという最近の研究によると。研究者たちは、地政学的危機シナリオでこれらのAIをテストし、人間のようなエスカレーションへの懸念の欠如を明らかにした。この発見は、軍隊が戦略計画にAIをますます取り入れる中で潜在的なリスクを強調している。

AIによるレポート

ブラウン大学の新たな研究は、ChatGPTのようなAIチャットボットをメンタルヘルスアドバイスに使用することの重大な倫理的懸念を指摘。研究者らは、これらのシステムはセラピストとして振る舞うよう促されても専門基準をしばしば侵害すると発見。こうしたツールを敏感な領域に展開する前に、より良いセーフガードが必要だと呼びかけている。

At the India AI Impact Summit, Prime Minister Narendra Modi described artificial intelligence as a turning point in human history that could reset the direction of civilisation. He expressed concern over the form of AI to be handed to future generations and emphasised making it human-centric and responsible. Experts have warned about risks including data privacy, deepfakes, and autonomous weapons.

AIによるレポート

IBMの人工知能ツール「Bob」が、マルウェアのダウンロードと実行を引き起こす可能性のある操作に対して脆弱であることが明らかになった。研究者らは、間接的なプロンプトインジェクション攻撃に対する脆弱性を指摘。発見は2026年1月9日にTechRadarが報じた。

新しい研究論文は、AIエージェントが数学的に失敗する運命にあると主張し、大手テック企業の過熱した期待に異議を唱えている。業界は楽観的だが、この研究は生成AIによる完全自動化が決して実現しない可能性を示唆している。2026年初頭に発表され、日常生活を変革するAIの約束に疑念を投げかけている。

AIによるレポート 事実確認済み

2026年3月24日付の学術誌『Radiology』に掲載された研究によると、AIが生成した「ディープフェイク」X線画像は、放射線科医や複数のマルチモーダルAIシステムを誤認させるほど精巧である可能性があることが報告された。テストにおいて、偽画像が含まれていると知らされていない状態では放射線科医の平均正解率は41%だったが、偽画像が含まれているという警告を受けた後には75%まで上昇した。この結果は、医療用画像のセキュリティおよび臨床判断における潜在的なリスクを浮き彫りにしている。

 

 

 

このウェブサイトはCookieを使用します

サイトを改善するための分析にCookieを使用します。詳細については、プライバシーポリシーをお読みください。
拒否