El fiscal general de Virginia Occidental, JB McCuskey, ha presentado una demanda contra Apple, alegando que la compañía permitió conscientemente que su plataforma iCloud almacenara y distribuyera material de abuso sexual infantil durante años sin actuar. La demanda afirma que el énfasis de Apple en la privacidad sobre la seguridad facilitó este problema. Apple sostiene que prioriza tanto la seguridad como la privacidad en sus innovaciones.
El 19 de febrero, el Tribunal de Circuito del condado de Mason, Virginia Occidental, recibió una denuncia del fiscal general JB McCuskey que acusa a Apple de negligencia en el manejo de material de abuso sexual infantil (CSAM) en iCloud. La demanda alega que los ejecutivos de Apple eran conscientes del problema desde febrero de 2020, en base a capturas de pantalla de iMessage entre Eric Friedman y Herve Sibert. En un intercambio, Friedman describió supuestamente iCloud como 'la mayor plataforma para distribuir pornografía infantil' y señaló que Apple había 'elegido no saber en suficientes lugares donde realmente no podemos decir'. También sospechó que la compañía estaba infrarreportando el problema de CSAM, refiriéndose a un artículo del New York Times sobre esfuerzos de detección. El 19 de febrero, el Tribunal de Circuito del condado de Mason, Virginia Occidental, recibió una denuncia del fiscal general JB McCuskey que acusa a Apple de negligencia en el manejo de material de abuso sexual infantil (CSAM) en iCloud. La demanda alega que los ejecutivos de Apple eran conscientes del problema desde febrero de 2020, en base a capturas de pantalla de iMessage entre Eric Friedman y Herve Sibert. En un intercambio, Friedman describió supuestamente iCloud como 'la mayor plataforma para distribuir pornografía infantil' y señaló que Apple había 'elegido no saber en suficientes lugares donde realmente no podemos decir'. También sospechó que la compañía estaba infrarreportando el problema de CSAM, refiriéndose a un artículo del New York Times sobre esfuerzos de detección. La denuncia destaca los bajos números de informes de Apple al National Center for Missing and Exploited Children: solo 267 detecciones en 2023, en comparación con 1,47 millones de Google y 30,6 millones de Meta. Critica a Apple por abandonar una iniciativa de 2021 para escanear fotos de iCloud en busca de CSAM debido a preocupaciones de privacidad, y por introducir Advanced Data Protection en diciembre de 2022, que habilita el cifrado de extremo a extremo para fotos y videos de iCloud. McCuskey argumenta que este cifrado dificulta a las fuerzas del orden identificar y procesar a los delincuentes de CSAM. «Preservar la privacidad de los depredadores infantiles es absolutamente inexcusable», declaró McCuskey. Exige que Apple implemente herramientas de detección de CSAM, informe imágenes y deje de permitir su almacenamiento y compartición. Apple respondió enfatizando su compromiso con la seguridad y la privacidad, particularmente para los niños. «Innovamos todos los días para combatir amenazas en constante evolución y mantener la plataforma más segura y confiable para los niños», dijo la compañía. Señaló funciones como Communication Safety, que está activada por defecto para usuarios menores de 18 años y detecta desnudez en Messages, Photos, AirDrop y FaceTime, aunque no se dirige a la distribución de CSAM adulto. Defensores de la privacidad, incluida la Electronic Frontier Foundation, apoyan el cifrado, argumentando que protege contra brechas de datos y excesos gubernamentales. «El cifrado es el mejor método que tenemos para proteger la privacidad en línea, lo cual es especialmente importante para los jóvenes», dijo Thorin Klosowski de la EFF. Esta demanda sigue acciones similares, incluida una acción colectiva de 2024 en el norte de California por más de 2500 víctimas de CSAM y un caso de agosto de 2024 en Carolina del Norte en nombre de una superviviente de 9 años. Marca la primera por un organismo gubernamental que busca medidas cautelares y daños para hacer cumplir las medidas de detección.