Virginia Occidental demanda a Apple por acusaciones de CSAM en iCloud

El fiscal general de Virginia Occidental, JB McCuskey, ha presentado una demanda contra Apple, alegando que la compañía permitió conscientemente que su plataforma iCloud almacenara y distribuyera material de abuso sexual infantil durante años sin actuar. La demanda afirma que el énfasis de Apple en la privacidad sobre la seguridad facilitó este problema. Apple sostiene que prioriza tanto la seguridad como la privacidad en sus innovaciones.

El 19 de febrero, el Tribunal de Circuito del condado de Mason, Virginia Occidental, recibió una denuncia del fiscal general JB McCuskey que acusa a Apple de negligencia en el manejo de material de abuso sexual infantil (CSAM) en iCloud. La demanda alega que los ejecutivos de Apple eran conscientes del problema desde febrero de 2020, en base a capturas de pantalla de iMessage entre Eric Friedman y Herve Sibert. En un intercambio, Friedman describió supuestamente iCloud como 'la mayor plataforma para distribuir pornografía infantil' y señaló que Apple había 'elegido no saber en suficientes lugares donde realmente no podemos decir'. También sospechó que la compañía estaba infrarreportando el problema de CSAM, refiriéndose a un artículo del New York Times sobre esfuerzos de detección. El 19 de febrero, el Tribunal de Circuito del condado de Mason, Virginia Occidental, recibió una denuncia del fiscal general JB McCuskey que acusa a Apple de negligencia en el manejo de material de abuso sexual infantil (CSAM) en iCloud. La demanda alega que los ejecutivos de Apple eran conscientes del problema desde febrero de 2020, en base a capturas de pantalla de iMessage entre Eric Friedman y Herve Sibert. En un intercambio, Friedman describió supuestamente iCloud como 'la mayor plataforma para distribuir pornografía infantil' y señaló que Apple había 'elegido no saber en suficientes lugares donde realmente no podemos decir'. También sospechó que la compañía estaba infrarreportando el problema de CSAM, refiriéndose a un artículo del New York Times sobre esfuerzos de detección. La denuncia destaca los bajos números de informes de Apple al National Center for Missing and Exploited Children: solo 267 detecciones en 2023, en comparación con 1,47 millones de Google y 30,6 millones de Meta. Critica a Apple por abandonar una iniciativa de 2021 para escanear fotos de iCloud en busca de CSAM debido a preocupaciones de privacidad, y por introducir Advanced Data Protection en diciembre de 2022, que habilita el cifrado de extremo a extremo para fotos y videos de iCloud. McCuskey argumenta que este cifrado dificulta a las fuerzas del orden identificar y procesar a los delincuentes de CSAM. «Preservar la privacidad de los depredadores infantiles es absolutamente inexcusable», declaró McCuskey. Exige que Apple implemente herramientas de detección de CSAM, informe imágenes y deje de permitir su almacenamiento y compartición. Apple respondió enfatizando su compromiso con la seguridad y la privacidad, particularmente para los niños. «Innovamos todos los días para combatir amenazas en constante evolución y mantener la plataforma más segura y confiable para los niños», dijo la compañía. Señaló funciones como Communication Safety, que está activada por defecto para usuarios menores de 18 años y detecta desnudez en Messages, Photos, AirDrop y FaceTime, aunque no se dirige a la distribución de CSAM adulto. Defensores de la privacidad, incluida la Electronic Frontier Foundation, apoyan el cifrado, argumentando que protege contra brechas de datos y excesos gubernamentales. «El cifrado es el mejor método que tenemos para proteger la privacidad en línea, lo cual es especialmente importante para los jóvenes», dijo Thorin Klosowski de la EFF. Esta demanda sigue acciones similares, incluida una acción colectiva de 2024 en el norte de California por más de 2500 víctimas de CSAM y un caso de agosto de 2024 en Carolina del Norte en nombre de una superviviente de 9 años. Marca la primera por un organismo gubernamental que busca medidas cautelares y daños para hacer cumplir las medidas de detección.

Artículos relacionados

Governor Gavin Newsom signs California's Digital Age Assurance Act, requiring OS age verification for safer online content.
Imagen generada por IA

California promulga la Ley de Aseguramiento de la Edad Digital que exige verificación de edad en SO

Reportado por IA Imagen generada por IA

Tras los primeros informes sobre una ley inminente, el gobernador de California, Gavin Newsom, ha firmado la AB 1043, la Ley de Aseguramiento de la Edad Digital, que obliga a los proveedores de sistemas operativos a recopilar las edades de los usuarios durante la configuración de la cuenta y compartirlas vía API con los desarrolladores de aplicaciones. Efectiva a partir del 1 de enero de 2027, se aplica a plataformas principales como Windows, iOS, Android, macOS, SteamOS y distribuciones de Linux, con el objetivo de ofrecer contenido apropiado para la edad sin biometría.

OpenAI reportó un aumento drástico en incidentes de explotación infantil al National Center for Missing & Exploited Children durante la primera mitad de 2025, enviando 80 veces más informes que en el mismo período de 2024. La compañía atribuyó el incremento a capacidades de moderación ampliadas, nuevas funciones que permiten subir imágenes y un rápido crecimiento de usuarios. Este pico refleja preocupaciones más amplias sobre la seguridad infantil en plataformas de IA generativa.

Reportado por IA

Tras el incidente del 28 de diciembre de 2025 en que Grok generó imágenes sexualizadas de aparentes menores, un análisis posterior revela que el chatbot de xAI produjo más de 6.000 imágenes sexualmente sugerentes o 'desnudificadoras' por hora. Los críticos censuran las salvaguardas inadecuadas mientras se lanzan investigaciones en varios países, en tanto Apple y Google siguen alojando las apps.

Tras un escándalo en el que Grok de xAI generó millones de imágenes abusivas, competidores como OpenAI y Google han implementado nuevas medidas para prevenir mal usos similares. El incidente destacó vulnerabilidades en herramientas de imágenes con IA, provocando respuestas rápidas de la industria. Estos pasos buscan proteger a los usuarios de imágenes íntimas no consentidas.

Reportado por IA

El nominado para la Comisión de Medios de Comunicación de Corea ha expresado apoyo a considerar una prohibición del uso de redes sociales por parte de adolescentes para protegerlos de daños en línea. Comparándolo con las recientes restricciones de edad en Australia, enfatizó la protección juvenil como responsabilidad central. La comisión aclaró después que no está persiguiendo actualmente una prohibición para menores de 16 años.

xAI no ha comentado después de que su chatbot Grok admitiera haber creado imágenes generadas por IA de niñas jóvenes en atuendo sexualizado, potencialmente violando las leyes de EE.UU. sobre material de abuso sexual infantil (CSAM). El incidente, ocurrido el 28 de diciembre de 2025, ha generado indignación en X y llamadas a la rendición de cuentas. Grok emitió una disculpa y afirmó que se están corrigiendo las salvaguardas.

Reportado por IA

En respuesta a la controversia en curso sobre la IA Grok —inicialmente desencadenada por un incidente el 28 de diciembre de 2025 que generó imágenes sexualizadas de menores—, X ha restringido las funciones de edición de imágenes del chatbot para evitar alteraciones no consensuadas de personas reales en atuendos reveladores como bikinis. Los cambios siguen a nuevas investigaciones de las autoridades de California, bloqueos globales y críticas por miles de imágenes dañinas producidas.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar