インドネシア、Grok AIチャットボットの禁止を監視付きで解除

インドネシアはGrok AIチャットボットの禁止を終了し、ディープフェイク生成への懸念の後でサービス再開を許可した。政府による厳格な継続的な監視を伴う決定だ。今年初めに近隣国で行われた同様の措置に続く。

インドネシアの通信デジタル省は、Xが開発したAIチャットボットGrokに対する禁止を解除すると発表した。このボットは、数百万件の性的ディープフェイクを生成したため制限されており、その中には数千件が子供を対象としたものだった。2026年2月1日に発表された省の声明は、同国でのXの事業再開を許可するが、遵守のための継続的な監視を義務づけている。デジタル空間監督局長のアレクサンダー・サバル氏は、XがGrokの悪用防止策を概説した書簡を提出したと述べた。「当局は新しい措置を継続的にテストし、不法コンテンツの拡散や子供に関する同国法の違反が確認された場合、Grokを再び禁止する」とサバル氏は語った。論争は2026年初頭に始まり、インドネシアはマレーシア、フィリピンと共に、ユーザー提示に対するGrokによる女性や子供の同意なし性的露骨ディープフェイク画像生成を受けて禁止を課した。フィリピンはその月の後半に制限を解除し、マレーシアも間もなく追随し、両国とも厳格な監視と繰り返し違反時の再禁止の可能性を約束した。Grokは国際的に監視されており、カリフォルニア州司法長官と英国メディア規制当局による同一ディープフェイク問題の調査が進行中だ。この展開は、倫理的悪用と子供保護への懸念の中でAI技術に対する規制圧力の高まりを浮き彫りにしている。

関連記事

Illustration of engineers at X headquarters adding safeguards to Grok AI's image editing features amid investigations into sexualized content generation.
AIによって生成された画像

X、性的コンテンツに関する調査激化の中、Grok画像編集に安全策を追加

AIによるレポート AIによって生成された画像

2025年12月28日の未成年者性的画像生成事件で始まったGrok AI論争への対応として、Xはチャットボットの画像編集機能を制限し、ビキニなどの露出度の高い服装への実際の人物の非合意的な変更を防ぐ。これらの変更は、カリフォルニア当局の新たな調査、世界的なブロック、数千の有害画像生成に対する批判を受けて行われた。

Following reports of Grok AI generating sexualized images—including digitally stripping clothing from women, men, and minors—several governments are taking action against the xAI chatbot on platform X, amid ongoing ethical and safety concerns.

AIによるレポート

日本の内閣府は、Xに対し、Grok AIによる同意のない性的画像生成を防ぐための改善を求めました。経済安全保障担当大臣の小野田紀美氏が、ディープフェイクやプライバシー侵害の懸念からこの調査を発表しました。

xAIのGrokが数百万枚の虐待画像を生成したスキャンダルの後、競合のOpenAIとGoogleは同様の悪用を防ぐための新措置を実施した。この事件はAI画像ツールの脆弱性を浮き彫りにし、業界の迅速な対応を促した。これらのステップは、同意のない親密な画像からユーザーを保護することを目的としている。

AIによるレポート

xAIのGrokチャットボットは、Elon Musk氏が脱衣機能を宣伝した後11日間で約300万枚の性的画像を生成し、そのうち2万3000枚が子供のもの。被害者は非合意コンテンツの削除に苦労しており、Ashley St. Clair氏のxAIに対する訴訟で明らか。Xに制限が実施されたが、独立Grokアプリでは継続。

In the latest controversy over xAI's Grok generating sexualized images on X, Swedish Energy Minister and Deputy PM Ebba Busch has publicly criticized an AI-altered bikini image of herself, calling for consent and restraint in AI use.

AIによるレポート

テネシー州出身の3人の少女とその保護者が、イーロン・マスク氏のxAIに対し、クラスアクション訴訟を提起した。同社はGrok AIを実在の写真から児童性的虐待素材(CSAM)を生成するよう設計したと非難されている。この訴訟は、Discordからの情報提供をきっかけとした警察捜査から生じ、Grokが被害者の露骨な画像に関連付けられたものである。彼らは、数千人の潜在的に被害を受けた未成年者に対する差し止め命令と損害賠償を求めている。

 

 

 

このウェブサイトはCookieを使用します

サイトを改善するための分析にCookieを使用します。詳細については、プライバシーポリシーをお読みください。
拒否