Le procureur général de Virginie-Occidentale, JB McCuskey, a intenté une action en justice contre Apple, alléguant que l'entreprise a sciemment permis à sa plateforme iCloud de stocker et distribuer du matériel de maltraitance sexuelle sur enfants pendant des années sans agir. La plainte affirme que l'accent mis par Apple sur la vie privée au détriment de la sécurité a permis ce problème. Apple affirme prioriser à la fois la sécurité et la vie privée dans ses innovations.
Le 19 février, la Cour de circuit du comté de Mason, en Virginie-Occidentale, a reçu une plainte du procureur général JB McCuskey accusant Apple de négligence dans la gestion de matériel de maltraitance sexuelle sur enfants (CSAM) sur iCloud. La plainte allègue que les dirigeants d'Apple étaient au courant du problème dès février 2020, sur la base de captures d'écran iMessage entre Eric Friedman et Herve Sibert. Dans un échange, Friedman aurait décrit iCloud comme « la plus grande plateforme pour distribuer de la pornographie enfantine » et noté qu'Apple avait « choisi de ne pas savoir dans assez d'endroits où nous ne pouvons vraiment pas dire ». Il soupçonnait également que l'entreprise sous-déclarait le problème de CSAM, en référence à un article du New York Times sur les efforts de détection. La plainte met en lumière les faibles chiffres de déclaration d'Apple au National Center for Missing and Exploited Children : seulement 267 détections en 2023, contre 1,47 million pour Google et 30,6 millions pour Meta. Elle critique Apple pour avoir abandonné une initiative de 2021 visant à scanner les photos iCloud pour détecter le CSAM en raison de préoccupations de vie privée, et pour avoir introduit Advanced Data Protection en décembre 2022, qui active le chiffrement de bout en bout pour les photos et vidéos iCloud. McCuskey argue que ce chiffrement entrave les forces de l'ordre dans l'identification et la poursuite des délinquants CSAM. « Préserver la vie privée des prédateurs d'enfants est absolument inexcusable », a déclaré McCuskey. Il exige qu'Apple implémente des outils de détection CSAM, signale les images et cesse de permettre leur stockage et partage. Apple a répondu en soulignant son engagement pour la sécurité et la vie privée, en particulier pour les enfants. « Nous innovons chaque jour pour combattre des menaces en constante évolution et maintenir la plateforme la plus sûre et la plus fiable pour les enfants », a déclaré l'entreprise. Elle a pointé des fonctionnalités comme Communication Safety, activée par défaut pour les utilisateurs de moins de 18 ans et qui détecte la nudité dans Messages, Photos, AirDrop et FaceTime, bien qu'elle ne vise pas la distribution de CSAM adulte. Les défenseurs de la vie privée, y compris l'Electronic Frontier Foundation, soutiennent le chiffrement, arguant qu'il protège contre les violations de données et les abus gouvernementaux. « Le chiffrement est la meilleure méthode que nous ayons pour protéger la vie privée en ligne, ce qui est particulièrement important pour les jeunes », a déclaré Thorin Klosowski de l'EFF. Cette action suit des procédures similaires, y compris une action collective de 2024 en Californie du Nord par plus de 2 500 victimes de CSAM et un cas d'août 2024 en Caroline du Nord au nom d'une survivante de 9 ans. Elle marque la première par un organisme gouvernemental cherchant un soulagement injonctif et des dommages pour imposer des mesures de détection.