O procurador-geral de West Virginia, JB McCuskey, apresentou uma ação judicial contra a Apple, alegando que a empresa permitiu conscientemente que sua plataforma iCloud armazenasse e distribuísse material de abuso sexual infantil por anos sem ação. A ação afirma que a ênfase da Apple na privacidade sobre a segurança permitiu esse problema. A Apple mantém que prioriza tanto segurança quanto privacidade em suas inovações.
Em 19 de fevereiro, o Tribunal de Circuito do Condado de Mason, West Virginia, recebeu uma queixa do procurador-geral JB McCuskey acusando a Apple de negligência no manuseio de material de abuso sexual infantil (CSAM) no iCloud. A ação alega que executivos da Apple estavam cientes do problema desde fevereiro de 2020, com base em capturas de tela do iMessage entre Eric Friedman e Herve Sibert. Em uma troca, Friedman supostamente descreveu o iCloud como 'a maior plataforma para distribuir pornografia infantil' e observou que a Apple havia 'escolhido não saber em lugares suficientes onde realmente não podemos dizer'. Ele também suspeitou que a empresa estava subnotificando o problema de CSAM, referenciando um artigo do New York Times sobre esforços de detecção. A queixa destaca os baixos números de relatórios da Apple ao National Center for Missing and Exploited Children: apenas 267 detecções em 2023, comparado a 1,47 milhão do Google e 30,6 milhões da Meta. Critica a Apple por abandonar uma iniciativa de 2021 para escanear fotos do iCloud em busca de CSAM devido a preocupações com privacidade, e por introduzir o Advanced Data Protection em dezembro de 2022, que ativa criptografia de ponta a ponta para fotos e vídeos do iCloud. McCuskey argumenta que essa criptografia dificulta as forças da lei na identificação e processamento de infratores de CSAM. «Preservar a privacidade de predadores de crianças é absolutamente inexcusável», declarou McCuskey. Ele exige que a Apple implemente ferramentas de detecção de CSAM, relate imagens e pare de permitir seu armazenamento e compartilhamento. A Apple respondeu enfatizando seu compromisso com segurança e privacidade, particularmente para crianças. «Estamos inovando todos os dias para combater ameaças em constante evolução e manter a plataforma mais segura e confiável para crianças», disse a empresa. Apontou recursos como Communication Safety, ativado por padrão para usuários menores de 18 anos e que detecta nudez em Messages, Photos, AirDrop e FaceTime, embora não vise a distribuição de CSAM adulto. Defensores da privacidade, incluindo a Electronic Frontier Foundation, apoiam a criptografia, argumentando que protege contra violações de dados e excessos governamentais. «A criptografia é o melhor método que temos para proteger a privacidade online, o que é especialmente importante para jovens», disse Thorin Klosowski, da EFF. Esta ação segue medidas semelhantes, incluindo uma ação coletiva de 2024 no norte da Califórnia por mais de 2.500 vítimas de CSAM e um caso de agosto de 2024 na Carolina do Norte em nome de uma sobrevivente de 9 anos. Marca a primeira por um órgão governamental buscando alívio injuntivo e danos para impor medidas de detecção.