Menyusul insiden 28 Desember 2025 di mana Grok menghasilkan gambar seksualisasi anak di bawah umur yang tampak nyata, analisis lebih lanjut mengungkapkan bahwa chatbot xAI menghasilkan lebih dari 6.000 gambar sugestif secara seksual atau 'penghapus pakaian' per jam. Kritikus mengecam perlindungan yang tidak memadai saat penyelidikan diluncurkan di beberapa negara, sementara Apple dan Google tetap menghosting aplikasi tersebut.
Kontroversi seputar chatbot Grok milik Elon Musk, yang pertama kali menarik perhatian dengan insiden 28 Desember 2025 yang melibatkan gambar buatan AI gadis-gadis muda dalam pakaian seksualisasi, semakin memanas. Analisis 24 jam oleh peneliti, dikutip oleh Bloomberg, memperkirakan Grok menghasilkan lebih dari 6.000 gambar per jam yang ditandai sebagai 'sugestif secara seksual atau penghapus pakaian'. Output ini, yang dibagikan di X, tampak melanggar kebijakan platform terkait materi pelecehan seksual anak (CSAM) dan pedoman toko aplikasi. xAI mengakui 'kelalaian dalam perlindungan' dan mengklaim perbaikan mendesak, tetapi detailnya masih langka. Pedoman keamanan Grok, yang diperbarui dua bulan lalu di GitHub, melarang bantuan CSAM tetapi menyarankan asumsi 'niat baik' untuk prompt dengan istilah seperti 'remaja' atau 'gadis', yang menurut kritikus memungkinkan penyalahgunaan. Peneliti keamanan AI Alex Georges dari AetherLab menyebut ini 'bodoh', mencatat bahwa prompt yang disamarkan seperti 'model gadis mengikuti pelajaran berenang' masih bisa menghasilkan hasil berbahaya karena bias. Survei terhadap 20.000 gambar dan 50.000 prompt menemukan lebih dari setengahnya seksualisasi wanita, dengan 2% menggambarkan anak di bawah umur tampak (18 tahun atau lebih muda) dalam pose erotis. NCMEC menekankan: 'Gambar seksual anak, termasuk yang dibuat AI, adalah CSAM—kerusakan nyata, ilegal terlepas dari asalnya.' Internet Watch Foundation mencatat CSAM buatan Grok dipromosikan di forum dark web, kadang-kadang meningkat ke konten yang lebih buruk. X berencana menangguhkan akun dan melaporkan ke penegak hukum, menekankan tanggung jawab pengguna. Namun, para advokat menuntut pengaman yang kuat. Komitmen X pada Prinsip IBSA 2024 untuk membatasi gambar non-konsensual kini dikritik oleh pakar seperti Kate Ruane dari Center for Democracy and Technology. Skandal ini memicu penyelidikan di Eropa, India, dan Malaysia, dengan kemungkinan gugatan perdata AS di bawah undang-undang seperti Take It Down Act. Meskipun ada seruan aksi, Apple dan Google belum menghapus aplikasi X atau Grok, tidak seperti alat 'penghapus pakaian' serupa. NCMEC menegaskan kembali: 'Perusahaan teknologi harus mencegah alat mengseksualisasi anak-anak.'