West Virginias justitieminister JB McCuskey har väckt talan mot Apple och hävdar att bolaget medvetet tillät sin iCloud-plattform att lagra och distribuera material med barnmisshandel under år utan åtgärder. Stämningen hävdar att Apples prioritering av integritet framför säkerhet möjliggjorde problemet. Apple hävdar att man prioriterar både säkerhet och integritet i sina innovationer.
Den 19 februari mottog kretsdomstolen i Mason County, West Virginia, en stämningsansökan från justitieministern JB McCuskey som anklagar Apple för försummelse i hanteringen av material med barnmisshandel (CSAM) på iCloud. Stämningen hävdar att Apples ledning kände till problemet så tidigt som i februari 2020, baserat på skärmdumpar från iMessage mellan Eric Friedman och Herve Sibert. I ett utbyte beskrev Friedman påstås iCloud som 'den största plattformen för att distribuera barnporr' och noterade att Apple 'valt att inte veta på tillräckligt många ställen där vi verkligen inte kan säga'. Han misstänkte också att bolaget under rapporterade CSAM-problemet och hänvisade till en artikel i New York Times om detektionsinsatser. Stämningsansökan belyser Apples låga rapporteringssiffror till National Center for Missing and Exploited Children: endast 267 detektioner 2023, jämfört med Googles 1,47 miljoner och Metas 30,6 miljoner. Den kritiserar Apple för att ha övergett en initiativ från 2021 för att skanna iCloud-bilder för CSAM på grund av integritetsoro, och för att ha introducerat Advanced Data Protection i december 2022, som aktiverar slut-till-slut-kryptering för iCloud-bilder och videor. McCuskey menar att krypteringen hindrar rättsväsendet från att identifiera och åtala CSAM-förövare. «Att bevara integriteten för barnpredatorer är absolut oförlåtligt», uppgav McCuskey. Han kräver att Apple implementerar CSAM-detektionsverktyg, rapporterar bilder och slutar tillåta lagring och delning. Apple svarade genom att betona sitt engagemang för säkerhet och integritet, särskilt för barn. «Vi innoverar varje dag för att bekämpa ständigt utvecklande hot och upprätthålla den säkraste och mest betrodda plattformen för barn», uppgav bolaget. Det pekade på funktioner som Communication Safety, som är aktiverad som standard för användare under 18 år och detekterar nakenhet i Messages, Photos, AirDrop och FaceTime, även om den inte riktar sig mot vuxen CSAM-distribution. Integritetsförespråkare, inklusive Electronic Frontier Foundation, stödjer kryptering och hävdar att den skyddar mot dataintrång och myndighetsöverskridanden. «Kryptering är den bästa metoden vi har för att skydda integritet online, vilket är särskilt viktigt för unga människor», sa EFF:s Thorin Klosowski. Denna stämning följer liknande åtgärder, inklusive en grupptalan 2024 i norra Kalifornien från över 2 500 CSAM-offer och ett fall i augusti 2024 i North Carolina å en 9-årig överlevande. Den är den första från en myndighet som söker föreläggande och skadestånd för att verkställa detektionsåtgärder.