La Virginie-Occidentale poursuit Apple pour allégations de CSAM sur iCloud

Le procureur général de Virginie-Occidentale, JB McCuskey, a intenté une action en justice contre Apple, alléguant que l'entreprise a sciemment permis à sa plateforme iCloud de stocker et distribuer du matériel de maltraitance sexuelle sur enfants pendant des années sans agir. La plainte affirme que l'accent mis par Apple sur la vie privée au détriment de la sécurité a permis ce problème. Apple affirme prioriser à la fois la sécurité et la vie privée dans ses innovations.

Le 19 février, la Cour de circuit du comté de Mason, en Virginie-Occidentale, a reçu une plainte du procureur général JB McCuskey accusant Apple de négligence dans la gestion de matériel de maltraitance sexuelle sur enfants (CSAM) sur iCloud. La plainte allègue que les dirigeants d'Apple étaient au courant du problème dès février 2020, sur la base de captures d'écran iMessage entre Eric Friedman et Herve Sibert. Dans un échange, Friedman aurait décrit iCloud comme « la plus grande plateforme pour distribuer de la pornographie enfantine » et noté qu'Apple avait « choisi de ne pas savoir dans assez d'endroits où nous ne pouvons vraiment pas dire ». Il soupçonnait également que l'entreprise sous-déclarait le problème de CSAM, en référence à un article du New York Times sur les efforts de détection. La plainte met en lumière les faibles chiffres de déclaration d'Apple au National Center for Missing and Exploited Children : seulement 267 détections en 2023, contre 1,47 million pour Google et 30,6 millions pour Meta. Elle critique Apple pour avoir abandonné une initiative de 2021 visant à scanner les photos iCloud pour détecter le CSAM en raison de préoccupations de vie privée, et pour avoir introduit Advanced Data Protection en décembre 2022, qui active le chiffrement de bout en bout pour les photos et vidéos iCloud. McCuskey argue que ce chiffrement entrave les forces de l'ordre dans l'identification et la poursuite des délinquants CSAM. « Préserver la vie privée des prédateurs d'enfants est absolument inexcusable », a déclaré McCuskey. Il exige qu'Apple implémente des outils de détection CSAM, signale les images et cesse de permettre leur stockage et partage. Apple a répondu en soulignant son engagement pour la sécurité et la vie privée, en particulier pour les enfants. « Nous innovons chaque jour pour combattre des menaces en constante évolution et maintenir la plateforme la plus sûre et la plus fiable pour les enfants », a déclaré l'entreprise. Elle a pointé des fonctionnalités comme Communication Safety, activée par défaut pour les utilisateurs de moins de 18 ans et qui détecte la nudité dans Messages, Photos, AirDrop et FaceTime, bien qu'elle ne vise pas la distribution de CSAM adulte. Les défenseurs de la vie privée, y compris l'Electronic Frontier Foundation, soutiennent le chiffrement, arguant qu'il protège contre les violations de données et les abus gouvernementaux. « Le chiffrement est la meilleure méthode que nous ayons pour protéger la vie privée en ligne, ce qui est particulièrement important pour les jeunes », a déclaré Thorin Klosowski de l'EFF. Cette action suit des procédures similaires, y compris une action collective de 2024 en Californie du Nord par plus de 2 500 victimes de CSAM et un cas d'août 2024 en Caroline du Nord au nom d'une survivante de 9 ans. Elle marque la première par un organisme gouvernemental cherchant un soulagement injonctif et des dommages pour imposer des mesures de détection.

Articles connexes

Governor Gavin Newsom signs California's Digital Age Assurance Act, requiring OS age verification for safer online content.
Image générée par IA

California enacts Digital Age Assurance Act requiring OS age verification

Rapporté par l'IA Image générée par IA

Following initial reports of an impending law, California Governor Gavin Newsom has signed AB 1043, the Digital Age Assurance Act, requiring operating system providers to collect users' ages during account setup and share via API with app developers. Effective January 1, 2027, it applies to major platforms like Windows, iOS, Android, macOS, SteamOS, and Linux distributions, aiming for age-appropriate content without biometrics.

Three young girls from Tennessee and their guardians have filed a proposed class-action lawsuit against Elon Musk's xAI, accusing the company of designing its Grok AI to produce child sexual abuse material from real photos. The suit stems from a Discord tip that led to a police investigation linking Grok to explicit images of the victims. They seek an injunction and damages for thousands of potentially harmed minors.

Rapporté par l'IA

Australian regulators are poised to require app stores to block AI services lacking age verification to protect younger users from mature content. This move comes ahead of a March 9 deadline, with potential fines for non-compliant AI companies. Only a fraction of leading AI chat services in the region have implemented such measures.

Building on our earlier coverage of California's Digital Age Assurance Act (AB 1043)—signed by Governor Gavin Newsom in October 2025 and effective January 1, 2027—the law's requirements for age data collection and API sharing pose steep compliance hurdles for volunteer-driven open-source operating systems like Ubuntu, Debian, Arch Linux, and SteamOS.

Rapporté par l'IA

James Strahler II, a 37-year-old from Ohio, pleaded guilty on Tuesday to federal charges including cyberstalking and producing AI-generated child sexual abuse material, marking the first conviction under the 2025 Take It Down Act. The law, signed by President Donald Trump, targets nonconsensual intimate images created with AI. Strahler used dozens of AI tools to harass women and create explicit images involving minors.

The Department of Information and Communications Technology (DICT) is studying a potential ban on the encrypted messaging app Telegram due to concerns over illegal activities like pornography and gambling. This follows a similar proposal for Signal earlier in the month. Rights groups worry about impacts on private communication rights.

Rapporté par l'IA

A new law in California mandates that all operating systems, including Linux, implement some form of age verification during account setup. The legislation aims to address online safety concerns. Details on enforcement remain unclear.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser