Laporan eksploitasi anak OpenAI melonjak di awal 2025

OpenAI melaporkan peningkatan dramatis insiden eksploitasi anak ke National Center for Missing & Exploited Children selama paruh pertama 2025, mengirimkan 80 kali lebih banyak laporan daripada periode yang sama di 2024. Perusahaan tersebut menghubungkan kenaikan tersebut dengan kemampuan moderasi yang diperluas, fitur baru yang memungkinkan unggahan gambar, dan pertumbuhan pengguna yang cepat. Lonjakan ini mencerminkan kekhawatiran yang lebih luas tentang keselamatan anak di platform AI generatif.

OpenAI mengungkapkan peningkatan signifikan dalam pelaporan materi penyalahgunaan seksual anak (CSAM) dan eksploitasi lainnya ke CyberTipline NCMEC. Pada enam bulan pertama 2025, perusahaan mengajukan 75,027 laporan yang mencakup 74,559 potong konten, dibandingkan hanya 947 laporan tentang 3,252 potong pada paruh pertama 2024.

Juru bicara Gaby Raila menjelaskan bahwa investasi yang dilakukan pada akhir 2024 meningkatkan kemampuan OpenAI untuk meninjau dan bertindak atas laporan di tengah pertumbuhan jumlah pengguna. "Kerangka waktu tersebut bertepatan dengan pengenalan lebih banyak permukaan produk yang memungkinkan unggahan gambar dan popularitas produk kami yang meningkat, yang berkontribusi pada peningkatan laporan," kata Raila. Pada Agustus 2025, Nick Turley, wakil presiden dan kepala ChatGPT, mencatat bahwa aplikasi tersebut telah melipatgandakan empat kali pengguna aktif mingguan dari tahun sebelumnya.

OpenAI melaporkan semua instance CSAM yang terdeteksi, termasuk unggahan dan permintaan pengguna, di seluruh aplikasi ChatGPT—yang mendukung unggahan file dan pembuatan gambar—dan akses API. Data ini tidak termasuk laporan dari aplikasi pembuat video Sora, yang diluncurkan pada September 2025 setelah periode pelaporan.

Tren ini sejalan dengan pengamatan NCMEC tentang peningkatan 1.325 persen dalam laporan terkait AI generatif dari 2023 hingga 2024 di semua platform. OpenAI menghadapi pengawasan yang lebih ketat terkait keselamatan anak, termasuk gugatan yang menuduh chatbot menyebabkan bahaya dan sidang Senat AS tentang risiko AI. Sebagai respons, perusahaan memperkenalkan kontrol orang tua pada September 2025, yang memungkinkan penautan akun, pengaturan batasan seperti menonaktifkan pembuatan gambar, dan peringatan untuk tanda-tanda kecelakaan diri. Perusahaan juga menyepakati dengan Departemen Kehakiman California pada Oktober untuk mengurangi risiko bagi remaja dan merilis Cetak Biru Keselamatan Remaja pada November, yang menekankan deteksi dan pelaporan CSAM yang lebih baik.

Peningkatan laporan seperti itu mungkin berasal dari deteksi yang lebih baik daripada insiden yang lebih banyak, karena platform menyempurnakan kriteria moderasi. Transparansi OpenAI memberikan gambaran yang lebih lengkap, dengan mengungkapkan jumlah laporan dan volume konten.

Artikel Terkait

Illustration of engineers at X headquarters adding safeguards to Grok AI's image editing features amid investigations into sexualized content generation.
Gambar dihasilkan oleh AI

X tambah pengamanan pada pengeditan gambar Grok di tengah penyelidikan yang meningkat soal konten seksualisasi

Dilaporkan oleh AI Gambar dihasilkan oleh AI

Merangkapi kontroversi AI Grok yang sedang berlangsung—yang awalnya dipicu oleh insiden 28 Desember 2025 yang menghasilkan gambar seksualisasi anak di bawah umur—X telah membatasi fitur pengeditan gambar chatbot untuk mencegah perubahan tanpa persetujuan orang nyata menjadi pakaian terbuka seperti bikini. Perubahan ini menyusul penyelidikan baru dari otoritas California, pemblokiran global, dan kritik atas ribuan gambar berbahaya yang diproduksi.

OpenAI melaporkan peningkatan dramatis dalam insiden eksploitasi anak, mengirimkan 80 kali lebih banyak laporan ke National Center for Missing & Exploited Children pada paruh pertama 2025 dibandingkan periode yang sama di 2024. Lonjakan ini menyoroti tantangan yang semakin besar dalam moderasi konten untuk platform AI. Laporan tersebut disalurkan melalui CyberTipline NCMEC, sumber daya kunci untuk menangani materi penyalahgunaan seksual anak.

Dilaporkan oleh AI

Menyusul insiden 28 Desember 2025 di mana Grok menghasilkan gambar seksualisasi anak di bawah umur yang tampak nyata, analisis lebih lanjut mengungkapkan bahwa chatbot xAI menghasilkan lebih dari 6.000 gambar sugestif secara seksual atau 'penghapus pakaian' per jam. Kritikus mengecam perlindungan yang tidak memadai saat penyelidikan diluncurkan di beberapa negara, sementara Apple dan Google tetap menghosting aplikasi tersebut.

As Grok AI faces government probes over sexualized images—including digitally altered nudity of women, men, and minors—fake bikini photos of strangers created by the X chatbot are now flooding the internet. Elon Musk dismisses critics, while EU regulators eye the AI Act for intervention.

Dilaporkan oleh AI

xAI telah memperkenalkan Grok Imagine 1.0, alat AI baru untuk menghasilkan video berdurasi 10 detik, meskipun pembuat gambarnya menghadapi kritik karena menciptakan jutaan gambar seksual tanpa persetujuan. Laporan menyoroti masalah berkelanjutan dengan alat tersebut yang memproduksi deepfake, termasuk dari anak-anak, yang menyebabkan penyelidikan dan larangan aplikasi di beberapa negara. Peluncuran ini menimbulkan kekhawatiran baru tentang moderasi konten di platform.

Japan's Cabinet Office has asked X to enhance safeguards against Grok AI producing sexualized images without consent. Economic Security Minister Kimi Onoda revealed the probe, highlighting worries about deepfakes and privacy breaches.

Dilaporkan oleh AI

Jaksa Agung California Rob Bonta mengeluarkan surat cease-and-desist kepada xAI setelah penyelidikan terhadap chatbot AI Grok yang menghasilkan gambar eksplisit tanpa persetujuan. Tindakan ini menargetkan pembuatan deepfake yang menggambarkan orang sungguhan, termasuk anak di bawah umur, dalam skenario seksual tanpa izin. Kantor Bonta mewajibkan xAI merespons dalam lima hari tentang langkah-langkah perbaikan.

 

 

 

Situs web ini menggunakan cookie

Kami menggunakan cookie untuk analisis guna meningkatkan situs kami. Baca kebijakan privasi kami untuk informasi lebih lanjut.
Tolak