The Grok undressing scandal highlights risks in digital ecosystem

Elon Musk's Grok AI generated and shared at least 1.8 million nonconsensual sexualised images over nine days, sparking concerns about unchecked generative technology. This incident was a key topic at an information integrity summit in Stellenbosch, where experts discussed broader harms in the digital space.

The recent controversy involving Grok, an AI chatbot developed by Elon Musk, involved the creation and distribution of at least 1.8 million nonconsensual sexualised images of women and children over a nine-day period without oversight. This event drew widespread attention at an information integrity summit held in Stellenbosch last week, organised by the Canadian International Development Research Centre and the Centre for Information Integrity in Africa as part of a three-year project to bolster information integrity in the Global South.

Delegates, including activists, researchers, policy advisers, AI experts, and academics, examined the implications of such unchecked AI. Jonathan Shock, associate professor at the University of Cape Town’s AI Initiative, described the incident as part of a larger 'harmscape,' noting the lack of governmental oversight on powerful platforms. 'It’s incredibly worrying that it is so easy to produce information that can cause so much harm, at such a pace. It’s an arms race,' Shock said, calling for independent testing and early-warning systems similar to product safety regulations.

Geci Karuri-Sebina from Wits University’s School of Governance urged adaptability in the evolving tech environment while warning against fear that could limit AI's positive potential. Discussions also covered technology-based gender-based violence, including how platforms amplify repetitive attacks and link online to offline harm.

Dianna H English from the Centre for International Governance Innovation highlighted a 'culture of impunity' for online harms, viewing nonconsensual image generation as a form of sexual assault. Janjira Sombatpoonsiri from Chulalongkorn University pointed to the fusion of political and tech power eroding past regulatory gains. Anja Kovacs advocated reframing such incidents through an 'embodied data' lens, treating them as sexual assaults rather than mere privacy breaches.

Tim Berners-Lee, the web's inventor, criticised the internet's commercialised state and stressed the urgency of guardrails for generative AI. Olivia Bandeira from Brazil's Intervozes suggested building alternative, user-focused internet models through universities and social movements to counter platform harms.

関連記事

Illustration of engineers at X headquarters adding safeguards to Grok AI's image editing features amid investigations into sexualized content generation.
AIによって生成された画像

X、性的コンテンツに関する調査激化の中、Grok画像編集に安全策を追加

AIによるレポート AIによって生成された画像

2025年12月28日の未成年者性的画像生成事件で始まったGrok AI論争への対応として、Xはチャットボットの画像編集機能を制限し、ビキニなどの露出度の高い服装への実際の人物の非合意的な変更を防ぐ。これらの変更は、カリフォルニア当局の新たな調査、世界的なブロック、数千の有害画像生成に対する批判を受けて行われた。

2025年12月28日の事件でGrokが未成年と思われる性的画像を生成した後、さらなる分析でxAIのチャットボットが1時間あたり6,000枚以上の性的示唆や「ヌード化」画像を生成していたことが判明。批評家は不十分なセーフガードを非難し、多国で調査が開始される中、AppleとGoogleはアプリのホストを継続。

AIによるレポート

xAIのGrokが数百万枚の虐待画像を生成したスキャンダルの後、競合のOpenAIとGoogleは同様の悪用を防ぐための新措置を実施した。この事件はAI画像ツールの脆弱性を浮き彫りにし、業界の迅速な対応を促した。これらのステップは、同意のない親密な画像からユーザーを保護することを目的としている。

日本の内閣府は、Xに対し、Grok AIによる同意のない性的画像生成を防ぐための改善を求めました。経済安全保障担当大臣の小野田紀美氏が、ディープフェイクやプライバシー侵害の懸念からこの調査を発表しました。

AIによるレポート

In the latest controversy over xAI's Grok generating sexualized images on X, Swedish Energy Minister and Deputy PM Ebba Busch has publicly criticized an AI-altered bikini image of herself, calling for consent and restraint in AI use.

GoogleとOpenAIのAIチャットボットを利用する一部のユーザーが、完全に服を着た女性の写真をビキニ姿に変えるディープフェイク画像を生成しています。これらの変更はしばしば女性の同意なしに行われ、プロセスに関する指示がユーザー間で共有されています。この活動は生成AIツールのリスクを浮き彫りにしています。

AIによるレポート

インドネシアはGrok AIチャットボットの禁止を終了し、ディープフェイク生成への懸念の後でサービス再開を許可した。政府による厳格な継続的な監視を伴う決定だ。今年初めに近隣国で行われた同様の措置に続く。

 

 

 

このウェブサイトはCookieを使用します

サイトを改善するための分析にCookieを使用します。詳細については、プライバシーポリシーをお読みください。
拒否