OpenAIは2025年前半にNational Center for Missing & Exploited Childrenに対し児童搾取事件の劇的な増加を報告し、2024年同期間の80倍の報告を送付した。同社はこの増加を、モデレーション機能の拡大、画像アップロードを可能にする新機能、ユーザー数の急増によるものと説明している。この急増は、生成AIプラットフォームにおける児童安全への広範な懸念を反映している。
OpenAIは、NCMECのCyberTiplineに対する児童性的虐待素材(CSAM)およびその他の搾取に関する報告の大幅な増加を公表した。2025年前半6ヶ月間で、同社は75,027件の報告を提出し、74,559点のコンテンツをカバーしており、2024年前半の947件(3,252点)から大幅に増加した。
広報担当のGaby Raila氏は、2024年末に行った投資がユーザー数の増加の中で報告のレビューと対応能力を強化したと説明した。「この期間は、画像アップロードを可能にする新たな製品機能の導入と、当社製品の人気の高まりが重なり、報告数の増加につながった」とRaila氏は述べた。2025年8月、ChatGPT担当副社長のNick Turley氏は、同アプリの週間アクティブユーザーが前年比4倍になったと指摘した。
OpenAIは、ファイルアップロードと画像生成をサポートするChatGPTアプリおよびAPIアクセスを通じて、アップロードやユーザー要求を含むすべての検知されたCSAM事例を報告している。このデータには、報告期間後に2025年9月に発売された動画生成アプリSoraからの報告は含まれない。
この傾向は、NCMECが2023年から2024年にかけて全プラットフォームで生成AI関連報告が1,325%増加したとする観測と一致する。OpenAIは児童安全に関する厳しい監視に直面しており、チャットボットによる被害を主張する訴訟や、AIリスクに関する米上院公聴会を含む。同社対応として、2025年9月に保護者コントロールを導入し、アカウント連携、画像生成の無効化などの制限設定、自傷兆候のアラートを設定可能とした。また、10月にカリフォルニア州司法長官と青少年リスク軽減で合意し、11月にTeen Safety Blueprintを発表、CSAM検知と報告の改善を強調した。
報告数の増加は、実際の事件増加ではなく検知向上による可能性があり、プラットフォームがモデレーション基準を洗練しているためである。OpenAIの透明性は、報告数とコンテンツ量の両方を公開することで、より完全な全体像を提供している。