OpenAIのデータ、ChatGPTとの週間自殺関連会話が100万件超を示す

OpenAIは、毎週100万人以上のユーザーがChatGPTと自殺について議論していることを示すデータを公開した。同社は、AIのメンタルヘルス問題への対応を改善することでこれらのやり取りに対処している。これは、脆弱なユーザーの保護に関する訴訟と警告の中で起こっている。

2025年10月28日、OpenAIはChatGPTの週間アクティブユーザー(総計8億人以上)の0.15%が、潜在的な自殺計画や意図の明確な兆候を示す会話に関与していると推定されるデータを共有した。この小さな割合は、TechCrunchによると、毎週100万人以上に相当する。同様の割合はチャットボットへの感情的な愛着の高まりを示し、数十万人にわたって精神病や躁病の兆候が現れている。

この公開は、メンタルヘルス懸念への対応を強化する発表を伴う。「モデルに苦痛をより良く認識させ、会話を緩和し、適切な場合に専門的なケアへ導くよう訓練しました」とOpenAIは述べた。同社は170人以上のメンタルヘルス専門家に相談し、彼らは最新のChatGPTバージョンが以前のものより適切に応答することを発見した。1000件以上の困難な会話の評価で、新しいGPT-5モデルは望ましい行動への適合率92%を達成し、8月15日バージョンの27%から向上した。OpenAIは長い会話でのセーフガードの改善を指摘し、感情的依存や非自殺的緊急事態のためのベンチマークを追加する計画を述べた。

これらの取り組みは深刻な課題に続く。OpenAIは、ChatGPTに自殺念慮を共有した後死亡した16歳の少年の両親からの訴訟に直面している。また、カリフォルニア州とデラウェア州を含む45州の司法長官が、若年ユーザーのためのより良い保護を促した。今月初め、OpenAIはウェルネス協議会を設立したが、批評家は自殺防止専門家の不在を指摘した。同社はまた、親のコントロールを導入し、より厳格なセーフガードのための年齢予測システムを開発中である。

これらの問題にもかかわらず、CEOのSam Altmanは10月14日に、検証された成人が12月からChatGPTとのエロティックな会話を可能になると発表した。OpenAIは2月にコンテンツルールを緩和したが、8月の訴訟後にメンタルヘルスの慎重さを優先して厳しくした。

このウェブサイトはクッキーを使用しています

サイトを改善するための分析にクッキーを使用しています。当社の プライバシーポリシー をお読みください 詳細については。
拒否