Virginia Occidental demanda a Apple por acusaciones de CSAM en iCloud

El fiscal general de Virginia Occidental, JB McCuskey, ha presentado una demanda contra Apple, alegando que la compañía permitió conscientemente que su plataforma iCloud almacenara y distribuyera material de abuso sexual infantil durante años sin actuar. La demanda afirma que el énfasis de Apple en la privacidad sobre la seguridad facilitó este problema. Apple sostiene que prioriza tanto la seguridad como la privacidad en sus innovaciones.

El 19 de febrero, el Tribunal de Circuito del condado de Mason, Virginia Occidental, recibió una denuncia del fiscal general JB McCuskey que acusa a Apple de negligencia en el manejo de material de abuso sexual infantil (CSAM) en iCloud. La demanda alega que los ejecutivos de Apple eran conscientes del problema desde febrero de 2020, en base a capturas de pantalla de iMessage entre Eric Friedman y Herve Sibert. En un intercambio, Friedman describió supuestamente iCloud como 'la mayor plataforma para distribuir pornografía infantil' y señaló que Apple había 'elegido no saber en suficientes lugares donde realmente no podemos decir'. También sospechó que la compañía estaba infrarreportando el problema de CSAM, refiriéndose a un artículo del New York Times sobre esfuerzos de detección. El 19 de febrero, el Tribunal de Circuito del condado de Mason, Virginia Occidental, recibió una denuncia del fiscal general JB McCuskey que acusa a Apple de negligencia en el manejo de material de abuso sexual infantil (CSAM) en iCloud. La demanda alega que los ejecutivos de Apple eran conscientes del problema desde febrero de 2020, en base a capturas de pantalla de iMessage entre Eric Friedman y Herve Sibert. En un intercambio, Friedman describió supuestamente iCloud como 'la mayor plataforma para distribuir pornografía infantil' y señaló que Apple había 'elegido no saber en suficientes lugares donde realmente no podemos decir'. También sospechó que la compañía estaba infrarreportando el problema de CSAM, refiriéndose a un artículo del New York Times sobre esfuerzos de detección. La denuncia destaca los bajos números de informes de Apple al National Center for Missing and Exploited Children: solo 267 detecciones en 2023, en comparación con 1,47 millones de Google y 30,6 millones de Meta. Critica a Apple por abandonar una iniciativa de 2021 para escanear fotos de iCloud en busca de CSAM debido a preocupaciones de privacidad, y por introducir Advanced Data Protection en diciembre de 2022, que habilita el cifrado de extremo a extremo para fotos y videos de iCloud. McCuskey argumenta que este cifrado dificulta a las fuerzas del orden identificar y procesar a los delincuentes de CSAM. «Preservar la privacidad de los depredadores infantiles es absolutamente inexcusable», declaró McCuskey. Exige que Apple implemente herramientas de detección de CSAM, informe imágenes y deje de permitir su almacenamiento y compartición. Apple respondió enfatizando su compromiso con la seguridad y la privacidad, particularmente para los niños. «Innovamos todos los días para combatir amenazas en constante evolución y mantener la plataforma más segura y confiable para los niños», dijo la compañía. Señaló funciones como Communication Safety, que está activada por defecto para usuarios menores de 18 años y detecta desnudez en Messages, Photos, AirDrop y FaceTime, aunque no se dirige a la distribución de CSAM adulto. Defensores de la privacidad, incluida la Electronic Frontier Foundation, apoyan el cifrado, argumentando que protege contra brechas de datos y excesos gubernamentales. «El cifrado es el mejor método que tenemos para proteger la privacidad en línea, lo cual es especialmente importante para los jóvenes», dijo Thorin Klosowski de la EFF. Esta demanda sigue acciones similares, incluida una acción colectiva de 2024 en el norte de California por más de 2500 víctimas de CSAM y un caso de agosto de 2024 en Carolina del Norte en nombre de una superviviente de 9 años. Marca la primera por un organismo gubernamental que busca medidas cautelares y daños para hacer cumplir las medidas de detección.

Artículos relacionados

Governor Gavin Newsom signs California's Digital Age Assurance Act, requiring OS age verification for safer online content.
Imagen generada por IA

California promulga la Ley de Aseguramiento de la Edad Digital que exige verificación de edad en SO

Reportado por IA Imagen generada por IA

Tras los primeros informes sobre una ley inminente, el gobernador de California, Gavin Newsom, ha firmado la AB 1043, la Ley de Aseguramiento de la Edad Digital, que obliga a los proveedores de sistemas operativos a recopilar las edades de los usuarios durante la configuración de la cuenta y compartirlas vía API con los desarrolladores de aplicaciones. Efectiva a partir del 1 de enero de 2027, se aplica a plataformas principales como Windows, iOS, Android, macOS, SteamOS y distribuciones de Linux, con el objetivo de ofrecer contenido apropiado para la edad sin biometría.

Tres chicas jóvenes de Tennessee y sus tutores han presentado una demanda de acción colectiva propuesta contra xAI de Elon Musk, acusando a la empresa de diseñar su IA Grok para producir material de abuso sexual infantil a partir de fotos reales. La demanda surge de una pista en Discord que llevó a una investigación policial vinculando a Grok con imágenes explícitas de las víctimas. Buscan una medida cautelar y daños para miles de menores potencialmente perjudicados.

Reportado por IA

Los reguladores australianos están a punto de exigir a las tiendas de apps que bloqueen servicios de IA sin verificación de edad para proteger a los usuarios jóvenes del contenido maduro. Esta medida llega antes del plazo del 9 de marzo, con posibles multas para las empresas de IA no conformes. Solo una fracción de los principales servicios de chat de IA en la región han implementado tales medidas.

Basándonos en nuestra cobertura anterior de la Ley de Garantía de Edad Digital de California (AB 1043) —firmada por el gobernador Gavin Newsom en octubre de 2025 y efectiva a partir del 1 de enero de 2027—, los requisitos de la ley para la recopilación de datos de edad y el intercambio de API representan obstáculos de cumplimiento pronunciados para sistemas operativos de código abierto impulsados por voluntarios como Ubuntu, Debian, Arch Linux y SteamOS.

Reportado por IA

James Strahler II, a 37-year-old from Ohio, pleaded guilty on Tuesday to federal charges including cyberstalking and producing AI-generated child sexual abuse material, marking the first conviction under the 2025 Take It Down Act. The law, signed by President Donald Trump, targets nonconsensual intimate images created with AI. Strahler used dozens of AI tools to harass women and create explicit images involving minors.

El Departamento de Información y Comunicaciones Tecnología (DICT) está estudiando una posible prohibición de la app de mensajería encriptada Telegram debido a preocupaciones por actividades ilegales como la pornografía y el juego. Esto sigue a una propuesta similar para Signal a principios de mes. Los grupos de derechos humanos temen impactos en los derechos de comunicación privada.

Reportado por IA

Una nueva ley en California exige que todos los sistemas operativos, incluido Linux, implementen algún tipo de verificación de edad durante la configuración de la cuenta. La legislación busca abordar preocupaciones sobre la seguridad en línea. Los detalles sobre la aplicación siguen sin aclararse.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar