Aiモデルが危険な実験室実験を促進するリスク

研究者らは、主要なAIモデルが火災、爆発、または中毒を引き起こす危険な科学実験を奨励する可能性があると警告している。19の先進モデルに対する新たなテストでは、いずれもすべての安全問題を確実に特定できなかったことが明らかになった。改善が進んでいるものの、専門家らは実験室での人間の監督の必要性を強調している。

人工知能の科学的調査への統合は効率を約束するが、安全上の重大なリスクももたらすと、Nature Machine Intelligenceに掲載された研究が指摘している。インディアナ州のUniversity of Notre DameのXiangliang Zhang氏が主導したこの研究では、LabSafety Benchというベンチマークを開発し、765の多肢選択問題と404の画像シナリオでAIの実験室危険検知能力を評価した。 19の大型言語モデルとビジョン言語モデルをテストした結果、いずれのモデルも全体で70%を超える精度を達成しなかった。例えば、Vicunaは多肢選択セクションでほぼランダム推測並みの成績だった一方、GPT-4oは86.55%、DeepSeek-R1は84.49%を記録した。画像ベースのテストでは、InstructBlip-7Bのようなモデルが30%未満だった。 これらの欠陥は、過去の実験室事故を考えると特に懸念される。例えば、1997年の化学者Karen Wetterhahnのジメチル水銀暴露による死亡、2016年の爆発で研究者が腕を失った事故、2014年の部分失明を引き起こした事件などだ。 Zhang氏は自律型ラボへのAI展開に慎重だ。「今? 実験室で? そうは思わない」と彼女は言う。「それらは一般目的のタスク向けに訓練されたことが多く... これらの[実験室の危険]に関するドメイン知識がない。」 OpenAIの広報担当者は研究の価値を認めつつ、最新モデルが含まれていないと指摘した。「GPT-5.2はこれまでで最も優れた科学モデルで、推論、計画、誤り検知が大幅に強化されている」と述べ、人間による安全責任を強調した。 Brunel University LondonのAllan Tucker氏のような専門家は、実験設計での人間のアシスタントとしてのAIを提唱し、過度な依存を警告する。「人間が後ろに下がってスイッチを切り、適切な精査なしにAIに難しい仕事を任せる証拠がすでにあります」と彼は言う。 University of California, Los AngelesのCraig Merlic氏は、初期AIモデルが酸のこぼれに関する助言を誤処理した例を挙げつつ、改善が進んだと指摘。人間との直接比較を疑問視し、AIの急速な進化を指摘する:「この論文の数字はあと6カ月で完全に無効になるでしょう。」 この研究は、ラボでの広範な採用前にAI安全プロトコルを強化する緊急性を強調している。

関連記事

ChatGPTやGeminiを含む一般的なAIモデルは、女性の健康に関する緊急の問題に対する適切なアドバイスを提供できないことが多く、新しいベンチマークテストによる。研究者らは、専門クエリに対する応答の60%が不十分だったことを発見し、AI訓練データのバイアスを強調した。この研究は、これらのギャップを埋めるための医療コンテンツの改善を求めている。

AIによるレポート

コーネル大学の研究によると、ChatGPTのようなAIツールが研究者の論文産出量を最大50%増加させ、特に非ネイティブ英語話者に利益をもたらしている。しかし、この洗練された原稿の急増は査読や資金配分の決定を複雑化させており、多くのものが実質的な科学的価値を欠いている。発見はグローバル研究ダイナミクスの変化を強調し、学術におけるAI使用に関する政策更新を求める。

サイバーセキュリティ専門家らは、人工知能がサイバー犯罪を再構築していることにますます警鐘を鳴らしており、ディープフェイクやAIフィッシング、ダーク大型言語モデルなどのツールが初心者でも高度な詐欺を実行可能にしている。これらの進展は来年の企業に重大なリスクをもたらす。TechRadarが公開した洞察は、これらの新興脅威の規模と洗練度を強調している。

AIによるレポート

ガーディアン紙の報道によると、OpenAIの最新AIモデルGPT-5.2は、ホロコーストやイラン政治などの敏感な問題を扱う際に、xAI駆動のオンライン百科事典Grokipediaを参照していることが明らかになった。プロフェッショナルなタスク向けに宣伝されているが、テストではソースの信頼性が疑問視されている。OpenAIは広範なウェブ検索と安全対策を強調して対応を擁護している。

 

 

 

このウェブサイトはCookieを使用します

サイトを改善するための分析にCookieを使用します。詳細については、プライバシーポリシーをお読みください。
拒否