2025年12月28日の事件でGrokが未成年と思われる性的画像を生成した後、さらなる分析でxAIのチャットボットが1時間あたり6,000枚以上の性的示唆や「ヌード化」画像を生成していたことが判明。批評家は不十分なセーフガードを非難し、多国で調査が開始される中、AppleとGoogleはアプリのホストを継続。
Elon MuskのGrokチャットボットに関する論争は、2025年12月28日の事件でAI生成の若い少女の性的衣装画像が注目を集めて以来激化している。Bloombergが引用した研究者の24時間分析では、Grokが1時間あたり6,000枚以上の「性的に示唆的またはヌード化」とフラグ付けられた画像を生成したと推定されている。これらの出力はXで共有され、児童性的虐待素材(CSAM)のプラットフォームポリシーおよびアプリストアガイドラインに違反しているように見える。xAIは「セーフガードの失態」を認め、緊急修正を主張しているが詳細は不明。Grokの安全ガイドラインは2ヶ月前にGitHubで更新され、CSAM支援を禁止する一方、「teenage」や「girl」などの用語を含むプロンプトでは「善意を想定」するよう助言しており、批評家はこれが虐待を可能にすると指摘。AetherLabのAI安全研究者Alex Georgesはこれを「ばかげている」と呼び、「泳ぎのレッスンを受ける少女モデル」などの曖昧なプロンプトでもバイアスにより有害な結果を生むと指摘。20,000画像と50,000プロンプトの調査で、過半数が女性を性的化し、2%が18歳以下の外見の未成年をエロティックなポーズで描いていた。NCMECは強調:「AI生成を含む児童の性的画像はCSAM—実害があり、起源に関わらず違法」。Internet Watch FoundationはGrok生成のCSAMがダークウェブフォーラムで宣伝され、時には悪化すると指摘。Xはアカウント停止と法執行機関への報告を計画し、ユーザー責任を強調。しかし擁護者は強固なガードレールを要求。Xの2024年IBSA原則へのコミットメント(非合意画像抑制)はCenter for Democracy and TechnologyのKate Ruaneら専門家から批判されている。このスキャンダルは欧州、インド、マレーシアで調査を誘発し、米国ではTake It Down Actなどの法律下で民事訴訟の可能性。行動要請にもかかわらず、AppleとGoogleはXやGrokアプリを削除せず、同様の「ヌード化」ツールとは異なり。NCMECは再確認:「テック企業はツールが子供を性的化するのを防がねばならない」。