ウェストバージニア州司法長官JB McCuskey氏は、Appleに対し、同社のiCloudプラットフォームが長年にわたり児童性的虐待素材(CSAM)を保存・配布することを故意に放置したとして訴訟を提起した。訴状は、Appleのプライバシー優先の姿勢が安全性を犠牲にし、この問題を助長したと主張している。Appleは、自社のイノベーションで安全とプライバシーの両方を優先していると主張している。
2月19日、ウェストバージニア州メイソン郡巡回裁判所は、司法長官JB McCuskey氏から、AppleがiCloud上の児童性的虐待素材(CSAM)の取り扱いで過失があったとする訴状を受け取った。訴状は、Apple幹部が2020年2月にはすでに問題を認識していたと主張し、Eric FriedmanとHerve Sibert間のiMessageのスクリーンショットを根拠としている。一つのやり取りで、FriedmanはiCloudを「児童ポルノを配布するための最高のプラットフォーム」と表現し、Appleが「本当に言えないほど多くの場所で知らないことを選んだ」と述べたとされる。彼はまた、同社がCSAM問題を過少報告している疑いがあり、検知努力に関するNew York Timesの記事を引用した。 訴状は、AppleのNational Center for Missing and Exploited Childrenへの報告数が低い点を強調している:2023年はわずか267件の検知に対し、Googleは147万件、Metaは3,060万件である。2021年のiCloud写真のCSAMスキャン計画をプライバシー懸念で放棄し、2022年12月にAdvanced Data Protectionを導入してiCloudの写真とビデオのエンドツーエンド暗号化を可能にした点を批判している。McCuskey氏は、この暗号化が法執行機関のCSAM加害者特定と起訴を妨げると主張する。 「児童捕食者のプライバシーを守るのは絶対に許されない」とMcCuskey氏は述べた。彼はAppleに対し、CSAM検知ツールの実施、画像報告、保存・共有の停止を求めている。 Appleは、安全とプライバシー、特に子どもたちへのコミットメントを強調して応じた。「進化する脅威に対抗し、子どもたちにとって最も安全で信頼できるプラットフォームを維持するため、毎日革新を続けている」と同社は述べた。Communication Safetyなどの機能を挙げ、これは18歳未満のユーザーにデフォルトで有効で、Messages、Photos、AirDrop、FaceTimeでの裸体を検知するが、成人向けCSAM配布は対象外である。 プライバシー擁護団体、Electronic Frontier Foundationを含むは暗号化を支持し、データ侵害や政府の過剰介入から守ると主張する。「暗号化はオンラインでのプライバシーを守る最良の方法であり、特に若者にとって重要だ」とEFFのThorin Klosowski氏は述べた。 この訴訟は類似の行動に続くもので、2024年の北カリフォルニアでの2,500人超のCSAM被害者の集団訴訟や、2024年8月のノースカロライナ州での9歳生存者を代表した訴訟を含む。検知措置の執行を求める政府機関による最初のものとして、差し止め救済と損害賠償を求める。