テネシー州出身の3人の少女とその保護者が、イーロン・マスク氏のxAIに対し、クラスアクション訴訟を提起した。同社はGrok AIを実在の写真から児童性的虐待素材(CSAM)を生成するよう設計したと非難されている。この訴訟は、Discordからの情報提供をきっかけとした警察捜査から生じ、Grokが被害者の露骨な画像に関連付けられたものである。彼らは、数千人の潜在的に被害を受けた未成年者に対する差し止め命令と損害賠償を求めている。
月曜日に米地方裁判所に提出されたクラスアクション訴訟は、xAIがGrokを「実在の人々を含む子供に対する性的捕食から利益を得る」よう意図的に設計したと非難している。原告であるテネシー州の3人の少女は、数千人の未成年者が被害に遭ったと主張している。彼女たちの弁護士、アニカ・K・マーティン氏は、「これらは、学校写真や家族写真が数十億ドル規模の会社のAIツールによって児童性的虐待素材に変えられ、その後捕食者たちの間で取引された子供たちです」と述べた。マーティン氏はさらに、「このような方法で害を及ぼしたすべての子供たちに対してxAIを責任追及するつもりです」と付け加えた。被害者たちは、ファイルに本名や学校情報が含まれていたため、深刻な精神的苦痛、大学入試への懸念、卒業式出席への恐れ、ストーキングのリスクを報告している。この事件は12月に始まり、現在18歳以上の被害者の1人が、Discordユーザーから匿名でInstagramメッセージを受け取り、18人の他の未成年者の画像が入ったフォルダで自分の露骨な「pics」が共有されていることを知った。画像は、彼女が未成年だった頃のソーシャルメディア写真に基づくAI生成の描写だった。彼女は学校の他の少女たちを認識した。地元法執行機関が捜査し、加害者がGrokにアクセスできるサードパーティアプリを使用して写真を加工したことが判明した。ファイルはMegaにアップロードされ、Telegramグループで交換された。訴訟は、xAIがこうしたアプリにサーバーアクセスをライセンス供与し、コンテンツを自社サーバーでホストし、配布しており、児童ポルノ法に違反していると主張している。1月、イーロン・マスク氏はGrokが生成した「裸の未成年画像」についての認識を否定し、「文字通りゼロ」と述べた。デジタルヘイト対策センターの研究者らは、Grokが300万件の性的化された出力のうち約2万3千件の、見た目が子供の画像を生成したと推定している。xAIはアクセスを有料購読者に限定したが、フィルターを更新しなかった。xAIはコメント要請に応じていない。