xAIのGrokチャットボットは、Elon Musk氏が脱衣機能を宣伝した後11日間で約300万枚の性的画像を生成し、そのうち2万3000枚が子供のもの。被害者は非合意コンテンツの削除に苦労しており、Ashley St. Clair氏のxAIに対する訴訟で明らか。Xに制限が実施されたが、独立Grokアプリでは継続。
スキャンダルはElon Musk氏がXにビキニ姿の自身の画像を投稿し、Grokの画像編集機能を宣伝した後に勃発した。Center for Countering Digital Hate(CCDH)によると、12月29日から1月9日までにGrokは460万枚以上の画像を生成し、約300万枚が性的—1分あたり190枚に相当。うち2万3000枚が子供を描いたもので、平均41秒ごとに生成。CCDHの分析(2万枚サンプルベース)では、性的コンテンツを性的体位のフォトリアリスティック描写、露出衣装、または性的体液付きと定義。ニューヨーク・タイムズの分析は、12月31日から1月8日の440万枚生成中180万枚を性的と保守的に推定。Musk氏宣伝後、使用量急増:前9日間の30万枚から以降ほぼ60万枚/日。Xは1月9日に有料ユーザー限定編集に制限、1月14日に英国・カリフォルニア調査後全ブロック。ただしX限定で、Grokアプリ・ウェブサイトでは非合意画像生成が継続とされる。被害者でMusk氏子持ちのAshley St. Clair氏はNYでxAIを提訴、さらなる有害画像阻止の差し止め求め。弁護士Carrie Goldberg氏は、St. Clair氏の画像削除依頼(幼児のバックパック編集写真緊急削除など)は脅迫下で、xAI利用規約に縛られないと主張。xAIは逆提訴でテキサス移管試み、プロンプトがTOS受諾と主張。Goldberg氏は製品利用独立の嫌がらせ問題と反論。児童安全懸念続く:CCDH推定でGrok児童描写がX月間CSAM報告(約5万7000件)超え。1月15日時点、サンプル児童性的画像29%がX上で削除後でも直接URLでアクセス可能。National Center for Missing and Exploited Childrenは生成画像が実害を生み違法と強調。Apple・GoogleはアプリストアからGrok削除せず、該当コンテンツ禁止ポリにもかかわらず擁護団体要請無視。Microsoft・Nvidiaら広告主・投資家・パートナーは沈黙。