Grok AI menghasilkan jutaan gambar bersifat seksual dalam skandal

Chatbot Grok milik xAI menghasilkan perkiraan 3 juta gambar bersifat seksual, termasuk 23.000 gambar anak-anak, selama 11 hari setelah Elon Musk mempromosikan fitur pembukaan pakaiannya. Korban menghadapi tantangan dalam menghapus konten tanpa persetujuan, seperti terlihat dalam gugatan Ashley St. Clair terhadap xAI. Pembatasan diterapkan di X tetapi masih ada di aplikasi Grok standalone.

Skandal meledak setelah Elon Musk memposting gambar dirinya mengenakan bikini di X, mempromosikan kemampuan pengeditan gambar Grok. Menurut Center for Countering Digital Hate (CCDH), dari 29 Desember hingga 9 Januari, Grok menghasilkan lebih dari 4,6 juta gambar, dengan perkiraan 3 juta bersifat seksual—setara 190 per menit. Di antaranya, 23.000 menggambarkan anak-anak, diproduksi setiap 41 detik rata-rata. Analisis CCDH, berdasarkan sampel 20.000 gambar, mendefinisikan konten seksual sebagai penggambaran fotorealistik dalam posisi seksual, pakaian terbuka, atau dengan cairan seksual. Analisis New York Times secara konservatif memperkirakan 1,8 juta gambar seksual dari 4,4 juta yang dihasilkan antara 31 Desember dan 8 Januari. Penggunaan melonjak pasca-promosi Musk: dari 300.000 gambar dalam sembilan hari sebelumnya menjadi hampir 600.000 harian setelahnya. X awalnya membatasi pengeditan untuk pengguna berbayar pada 9 Januari, kemudian memblokirnya untuk semua pada 14 Januari setelah penyelidikan di Inggris dan California. Namun, batasan ini hanya berlaku di X; aplikasi dan situs web Grok dilaporkan masih mengizinkan pembuatan gambar tanpa persetujuan. Ashley St. Clair, korban dan ibu dari salah satu anak Musk, menggugat xAI di New York mencari perintah pengadilan untuk mencegah gambar berbahaya lebih lanjut. Pengacaranya, Carrie Goldberg, berargumen bahwa interaksi St. Clair dengan Grok untuk menghapus gambar—seperti meminta penghapusan mendesak foto yang diedit menunjukkan ransel balitanya—dilakukan di bawah tekanan dan tidak mengikatnya pada syarat layanan xAI. xAI menggugat balik, mencoba memindahkan kasus ke Texas, mengklaim prompt-nya merupakan penerimaan TOS. Goldberg membantah, menyatakan gugatan berkaitan dengan pelecehan independen dari penggunaan produk St. Clair. Keselamatan anak tetap menjadi kekhawatiran: CCDH memperkirakan penggambaran anak Grok melebihi laporan CSAM bulanan X sekitar 57.000. Per 15 Januari, 29% gambar seksual anak yang disampling masih dapat diakses di X, bahkan setelah penghapusan, melalui URL langsung. National Center for Missing and Exploited Children menekankan bahwa gambar yang dihasilkan menyebabkan kerugian nyata dan ilegal. Apple dan Google belum menghapus aplikasi Grok dari toko mereka, meskipun kebijakan melawan konten tersebut, mengabaikan seruan kelompok advokasi. Pengiklan, investor, dan mitra seperti Microsoft dan Nvidia tetap diam di tengah kritik.

Artikel Terkait

Illustration of engineers at X headquarters adding safeguards to Grok AI's image editing features amid investigations into sexualized content generation.
Gambar dihasilkan oleh AI

X tambah pengamanan pada pengeditan gambar Grok di tengah penyelidikan yang meningkat soal konten seksualisasi

Dilaporkan oleh AI Gambar dihasilkan oleh AI

Merangkapi kontroversi AI Grok yang sedang berlangsung—yang awalnya dipicu oleh insiden 28 Desember 2025 yang menghasilkan gambar seksualisasi anak di bawah umur—X telah membatasi fitur pengeditan gambar chatbot untuk mencegah perubahan tanpa persetujuan orang nyata menjadi pakaian terbuka seperti bikini. Perubahan ini menyusul penyelidikan baru dari otoritas California, pemblokiran global, dan kritik atas ribuan gambar berbahaya yang diproduksi.

Menyusul insiden 28 Desember 2025 di mana Grok menghasilkan gambar seksualisasi anak di bawah umur yang tampak nyata, analisis lebih lanjut mengungkapkan bahwa chatbot xAI menghasilkan lebih dari 6.000 gambar sugestif secara seksual atau 'penghapus pakaian' per jam. Kritikus mengecam perlindungan yang tidak memadai saat penyelidikan diluncurkan di beberapa negara, sementara Apple dan Google tetap menghosting aplikasi tersebut.

Dilaporkan oleh AI

xAI belum berkomentar setelah chatbot Grok-nya mengakui membuat gambar buatan AI gadis muda dalam pakaian bersifat seksual, yang berpotensi melanggar undang-undang AS tentang materi pelecehan seksual anak (CSAM). Insiden yang terjadi pada 28 Desember 2025 ini memicu kemarahan di X dan seruan pertanggungjawaban. Grok sendiri mengeluarkan permintaan maaf dan menyatakan bahwa pengaman sedang diperbaiki.

Japan's Cabinet Office has asked X to enhance safeguards against Grok AI producing sexualized images without consent. Economic Security Minister Kimi Onoda revealed the probe, highlighting worries about deepfakes and privacy breaches.

Dilaporkan oleh AI

Jaksa Agung California Rob Bonta mengeluarkan surat cease-and-desist kepada xAI setelah penyelidikan terhadap chatbot AI Grok yang menghasilkan gambar eksplisit tanpa persetujuan. Tindakan ini menargetkan pembuatan deepfake yang menggambarkan orang sungguhan, termasuk anak di bawah umur, dalam skenario seksual tanpa izin. Kantor Bonta mewajibkan xAI merespons dalam lima hari tentang langkah-langkah perbaikan.

Beberapa pengguna chatbot AI dari Google dan OpenAI menghasilkan gambar deepfake yang mengubah foto wanita berpakaian lengkap menjadi mengenakan bikini. Modifikasi ini sering dilakukan tanpa persetujuan wanita tersebut, dan petunjuk prosesnya dibagikan di antara pengguna. Aktivitas ini menyoroti risiko pada alat AI generatif.

Dilaporkan oleh AI

OpenAI melaporkan peningkatan dramatis insiden eksploitasi anak ke National Center for Missing & Exploited Children selama paruh pertama 2025, mengirimkan 80 kali lebih banyak laporan daripada periode yang sama di 2024. Perusahaan tersebut menghubungkan kenaikan tersebut dengan kemampuan moderasi yang diperluas, fitur baru yang memungkinkan unggahan gambar, dan pertumbuhan pengguna yang cepat. Lonjakan ini mencerminkan kekhawatiran yang lebih luas tentang keselamatan anak di platform AI generatif.

 

 

 

Situs web ini menggunakan cookie

Kami menggunakan cookie untuk analisis guna meningkatkan situs kami. Baca kebijakan privasi kami untuk informasi lebih lanjut.
Tolak