OpenAI melaporkan peningkatan dramatis insiden eksploitasi anak ke National Center for Missing & Exploited Children selama paruh pertama 2025, mengirimkan 80 kali lebih banyak laporan daripada periode yang sama di 2024. Perusahaan tersebut menghubungkan kenaikan tersebut dengan kemampuan moderasi yang diperluas, fitur baru yang memungkinkan unggahan gambar, dan pertumbuhan pengguna yang cepat. Lonjakan ini mencerminkan kekhawatiran yang lebih luas tentang keselamatan anak di platform AI generatif.
OpenAI mengungkapkan peningkatan signifikan dalam pelaporan materi penyalahgunaan seksual anak (CSAM) dan eksploitasi lainnya ke CyberTipline NCMEC. Pada enam bulan pertama 2025, perusahaan mengajukan 75,027 laporan yang mencakup 74,559 potong konten, dibandingkan hanya 947 laporan tentang 3,252 potong pada paruh pertama 2024.
Juru bicara Gaby Raila menjelaskan bahwa investasi yang dilakukan pada akhir 2024 meningkatkan kemampuan OpenAI untuk meninjau dan bertindak atas laporan di tengah pertumbuhan jumlah pengguna. "Kerangka waktu tersebut bertepatan dengan pengenalan lebih banyak permukaan produk yang memungkinkan unggahan gambar dan popularitas produk kami yang meningkat, yang berkontribusi pada peningkatan laporan," kata Raila. Pada Agustus 2025, Nick Turley, wakil presiden dan kepala ChatGPT, mencatat bahwa aplikasi tersebut telah melipatgandakan empat kali pengguna aktif mingguan dari tahun sebelumnya.
OpenAI melaporkan semua instance CSAM yang terdeteksi, termasuk unggahan dan permintaan pengguna, di seluruh aplikasi ChatGPT—yang mendukung unggahan file dan pembuatan gambar—dan akses API. Data ini tidak termasuk laporan dari aplikasi pembuat video Sora, yang diluncurkan pada September 2025 setelah periode pelaporan.
Tren ini sejalan dengan pengamatan NCMEC tentang peningkatan 1.325 persen dalam laporan terkait AI generatif dari 2023 hingga 2024 di semua platform. OpenAI menghadapi pengawasan yang lebih ketat terkait keselamatan anak, termasuk gugatan yang menuduh chatbot menyebabkan bahaya dan sidang Senat AS tentang risiko AI. Sebagai respons, perusahaan memperkenalkan kontrol orang tua pada September 2025, yang memungkinkan penautan akun, pengaturan batasan seperti menonaktifkan pembuatan gambar, dan peringatan untuk tanda-tanda kecelakaan diri. Perusahaan juga menyepakati dengan Departemen Kehakiman California pada Oktober untuk mengurangi risiko bagi remaja dan merilis Cetak Biru Keselamatan Remaja pada November, yang menekankan deteksi dan pelaporan CSAM yang lebih baik.
Peningkatan laporan seperti itu mungkin berasal dari deteksi yang lebih baik daripada insiden yang lebih banyak, karena platform menyempurnakan kriteria moderasi. Transparansi OpenAI memberikan gambaran yang lebih lengkap, dengan mengungkapkan jumlah laporan dan volume konten.