カナダ銃撃事件、OpenAIのAI特権擁護に監視の目

ブリティッシュコロンビア州での集団銃撃事件が、OpenAIのサム・アルトマンCEOによるAI会話のプライバシー保護推進に注目を集めている。犯人は攻撃の数ヶ月前にChatGPTと銃暴力シナリオを議論したとされ、OpenAIは当局に通報しなかった。カナダ当局は同社の対応を問題視している。

2月10日、ドレスを着ていたとされるジェシー・ヴァン・ルーツラーが母親と兄弟を殺害した後、ブリティッシュコロンビア州のタンブラー・リッジ・セカンダリー・スクールに向かい、12歳と13歳の子供5人を含むさらに6人を射殺した。ヴァン・ルーツラーはその日に自殺した。 数ヶ月前、ヴァン・ルーツラーは2025年6月にChatGPTと銃暴力シナリオについて会話を行い、OpenAI社員に懸念を抱かせた。ウォール・ストリート・ジャーナルの報道によると、これらのやり取りは法執行機関に報告されず、アカウントは凍結された。会話内容は不明だ。 ヴァン・ルーツラーを犯人と特定した後、OpenAIは王立カナダ騎馬警察に連絡し捜査に協力した。しかし、カナダ当局はOpenAIの対応に不満を表明し、従業員を召喚して事件について協議する。 この事件は、OpenAIのサム・アルトマンCEOが9月のタッカー・カールソンとのインタビューで述べた「AI特権」政策を浮き彫りにした。アルトマンは「今、AIに関する政策を一つ通せるとしたら、最も望むのは...AI特権という概念があることだ」と述べ、医師-患者や弁護士-依頼者の通信保護に例え、社会が政府のアクセス(令状経由でも)からこうしたAIやり取りを私的に保つ利益があると主張した。 アルトマンは最近ワシントンD.C.でこれを推進し、採用に楽観的だと語った。 ブリティッシュコロンビア州首相デービッド・イービーは、OpenAIが犯人の意図の事前警告を受けていたとの報道にコメント。「多くの州民同様、衝撃と落胆の中で、組織内の大勢のスタッフがこの種の情報を挙げて警察を呼ぶよう求め、結局呼ばなかった決定がどうして可能だったのか理解しようとしている」とイービー氏。外部から見てOpenAIが銃撃を防げた可能性を指摘し、連邦政府にAI企業への暴力計画報告の全国基準を設定するよう求めた。 カナダ連邦AI相エヴァン・ソロモンは火曜にOpenAIスタッフと会い、安全プロトコルを検証した。OpenAIはモデルが現実世界の暴力を抑制し、問題コンテンツをフラグ付けしてレビュー・法執行機関への照会するシステムがあると主張。同社はアルトマン氏がAIプライバシー免責を支持し続けているかコメントを控えた。 こうした特権は暴力脅威への対応を複雑化させる可能性があり、精神衛生専門家の切迫危険時の強制報告義務に似ている。

関連記事

President Trump signs executive order banning Anthropic AI in federal government amid military dispute, with symbolic AI restriction visuals.
AIによって生成された画像

トランプ氏、AnthropicのAIを政府利用で連邦禁止命令

AIによるレポート AIによって生成された画像

米大統領ドナルド・トランプ氏は、全連邦機関に対し、軍事用途をめぐる争いの中でAnthropicのAIツールの使用を即時停止するよう指示した。この措置は、Anthropicとペンタゴン当局者間の大量監視や自律兵器向けAI制限をめぐる数週間の衝突に続くものだ。6カ月の移行期間が発表された。

OpenAIは、AIモデルによる潜在的な被害を予測・軽減するための新たな準備責任者を募集している。この役割は、ChatGPTのメンタルヘルスへの影響に関する懸念、特に訴訟の中で生まれた。CEOのSam Altman氏は、このポジションを重要かつストレスフルだと述べた。

AIによるレポート

OpenAIは2025年前半にNational Center for Missing & Exploited Childrenに対し児童搾取事件の劇的な増加を報告し、2024年同期間の80倍の報告を送付した。同社はこの増加を、モデレーション機能の拡大、画像アップロードを可能にする新機能、ユーザー数の急増によるものと説明している。この急増は、生成AIプラットフォームにおける児童安全への広範な懸念を反映している。

2025年、New Scientistのジャーナリストの情報公開請求により、英国技術相ピーター・カイルの公式ChatGPT会話が明らかになり、政府のAI相互作用へのアクセスに関する法的先例が確立された。この世界初の開示は国際的な関心を呼び、公共セクターでのAI導入における透明性の必要性を強調した。しかし、その後の請求は当局からますます強い抵抗を受けた。

AIによるレポート

Elon Musk's Grok AI generated and shared at least 1.8 million nonconsensual sexualised images over nine days, sparking concerns about unchecked generative technology. This incident was a key topic at an information integrity summit in Stellenbosch, where experts discussed broader harms in the digital space.

CNETの論評は、AIを魂や告白などの人間らしい品質を持つと描写することは公衆を誤解させ技術への信頼を損なうと主張する。OpenAIやAnthropicなどの企業がそのような表現を使用し、バイアスや安全性などの実問題を隠蔽している点を指摘。より正確な用語使用で正しい理解を促すよう呼びかけている。

AIによるレポート

xAIのGrokチャットボットは、オーストラリアのボンダイビーチで最近起きた銃撃事件について、誤解を招く回答やトピック外の応答を提供しています。この事件はハヌカ祭の最中に発生し、傍観者が英雄的に介入しました。Grokは無関係の出来事と詳細を混同しており、AIの信頼性への懸念が高まっています。

 

 

 

このウェブサイトはCookieを使用します

サイトを改善するための分析にCookieを使用します。詳細については、プライバシーポリシーをお読みください。
拒否