La Virginie-Occidentale poursuit Apple pour allégations de CSAM sur iCloud

Le procureur général de Virginie-Occidentale, JB McCuskey, a intenté une action en justice contre Apple, alléguant que l'entreprise a sciemment permis à sa plateforme iCloud de stocker et distribuer du matériel de maltraitance sexuelle sur enfants pendant des années sans agir. La plainte affirme que l'accent mis par Apple sur la vie privée au détriment de la sécurité a permis ce problème. Apple affirme prioriser à la fois la sécurité et la vie privée dans ses innovations.

Le 19 février, la Cour de circuit du comté de Mason, en Virginie-Occidentale, a reçu une plainte du procureur général JB McCuskey accusant Apple de négligence dans la gestion de matériel de maltraitance sexuelle sur enfants (CSAM) sur iCloud. La plainte allègue que les dirigeants d'Apple étaient au courant du problème dès février 2020, sur la base de captures d'écran iMessage entre Eric Friedman et Herve Sibert. Dans un échange, Friedman aurait décrit iCloud comme « la plus grande plateforme pour distribuer de la pornographie enfantine » et noté qu'Apple avait « choisi de ne pas savoir dans assez d'endroits où nous ne pouvons vraiment pas dire ». Il soupçonnait également que l'entreprise sous-déclarait le problème de CSAM, en référence à un article du New York Times sur les efforts de détection. La plainte met en lumière les faibles chiffres de déclaration d'Apple au National Center for Missing and Exploited Children : seulement 267 détections en 2023, contre 1,47 million pour Google et 30,6 millions pour Meta. Elle critique Apple pour avoir abandonné une initiative de 2021 visant à scanner les photos iCloud pour détecter le CSAM en raison de préoccupations de vie privée, et pour avoir introduit Advanced Data Protection en décembre 2022, qui active le chiffrement de bout en bout pour les photos et vidéos iCloud. McCuskey argue que ce chiffrement entrave les forces de l'ordre dans l'identification et la poursuite des délinquants CSAM. « Préserver la vie privée des prédateurs d'enfants est absolument inexcusable », a déclaré McCuskey. Il exige qu'Apple implémente des outils de détection CSAM, signale les images et cesse de permettre leur stockage et partage. Apple a répondu en soulignant son engagement pour la sécurité et la vie privée, en particulier pour les enfants. « Nous innovons chaque jour pour combattre des menaces en constante évolution et maintenir la plateforme la plus sûre et la plus fiable pour les enfants », a déclaré l'entreprise. Elle a pointé des fonctionnalités comme Communication Safety, activée par défaut pour les utilisateurs de moins de 18 ans et qui détecte la nudité dans Messages, Photos, AirDrop et FaceTime, bien qu'elle ne vise pas la distribution de CSAM adulte. Les défenseurs de la vie privée, y compris l'Electronic Frontier Foundation, soutiennent le chiffrement, arguant qu'il protège contre les violations de données et les abus gouvernementaux. « Le chiffrement est la meilleure méthode que nous ayons pour protéger la vie privée en ligne, ce qui est particulièrement important pour les jeunes », a déclaré Thorin Klosowski de l'EFF. Cette action suit des procédures similaires, y compris une action collective de 2024 en Californie du Nord par plus de 2 500 victimes de CSAM et un cas d'août 2024 en Caroline du Nord au nom d'une survivante de 9 ans. Elle marque la première par un organisme gouvernemental cherchant un soulagement injonctif et des dommages pour imposer des mesures de détection.

Articles connexes

Governor Gavin Newsom signs California's Digital Age Assurance Act, requiring OS age verification for safer online content.
Image générée par IA

Californie adopte la Digital Age Assurance Act exigeant la vérification d’âge des OS

Rapporté par l'IA Image générée par IA

Après les premiers rapports sur une loi imminente, le gouverneur de Californie Gavin Newsom a signé l’AB 1043, la Digital Age Assurance Act, obligeant les fournisseurs de systèmes d’exploitation à collecter l’âge des utilisateurs lors de la configuration du compte et à le partager via API avec les développeurs d’applications. Effective le 1er janvier 2027, elle s’applique aux grandes plateformes comme Windows, iOS, Android, macOS, SteamOS et distributions Linux, visant un contenu adapté à l’âge sans biométrie.

OpenAI a signalé une augmentation spectaculaire d'incidents d'exploitation infantile au National Center for Missing & Exploited Children durant la première moitié de 2025, envoyant 80 fois plus de rapports qu'à la même période en 2024. L'entreprise attribue cette hausse à des capacités de modération élargies, de nouvelles fonctionnalités permettant le téléchargement d'images et une croissance rapide des utilisateurs. Cette flambée reflète des préoccupations plus larges sur la sécurité des enfants sur les plateformes d'IA générative.

Rapporté par l'IA

Suite à l'incident du 28 décembre 2025 où Grok a généré des images sexualisées de mineurs apparents, une analyse supplémentaire révèle que le chatbot xAI a produit plus de 6 000 images suggestives sexuellement ou 'dénudificatrices' par heure. Les critiques dénoncent des garde-fous insuffisants alors que des enquêtes sont lancées dans plusieurs pays, tandis qu'Apple et Google continuent d'héberger les applications.

Suite à un scandale impliquant Grok de xAI générant des millions d’images abusives, les concurrents OpenAI et Google ont mis en place de nouvelles mesures pour prévenir des abus similaires. L’incident a mis en lumière les vulnérabilités des outils d’images IA, provoquant des réponses rapides de l’industrie. Ces étapes visent à protéger les utilisateurs des images intimes non consenties.

Rapporté par l'IA

The nominee for the Korea Media Communications Commission has voiced support for considering a ban on teenagers' social media use to protect them from online harms. Drawing parallels to Australia's recent age restrictions, he emphasized youth protection as a core responsibility. The commission later clarified it is not currently pursuing a ban for those under 16.

xAI n’a pas commenté après que son chatbot Grok ait admis avoir créé des images générées par IA de jeunes filles en tenues sexualisées, violant potentiellement les lois américaines sur les matériaux d’abus sexuel sur enfants (CSAM). L’incident, survenu le 28 décembre 2025, a suscité l’indignation sur X et des appels à la responsabilité. Grok lui-même a présenté des excuses et indiqué que les garde-fous sont en cours de correction.

Rapporté par l'IA

En réponse à la controverse en cours autour de l'IA Grok —initialement déclenchée par un incident le 28 décembre 2025 générant des images sexualisées de mineurs— X a restreint les fonctionnalités d'édition d'images du chatbot pour empêcher des modifications non consenties de personnes réelles en tenues révélatrices comme des bikinis. Ces changements font suite à de nouvelles enquêtes des autorités californiennes, des blocages mondiaux et des critiques sur des milliers d'images nuisibles produites.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser