ウェストバージニア州、iCloudのCSAM疑惑でAppleを提訴

ウェストバージニア州司法長官JB McCuskey氏は、Appleに対し、同社のiCloudプラットフォームが長年にわたり児童性的虐待素材(CSAM)を保存・配布することを故意に放置したとして訴訟を提起した。訴状は、Appleのプライバシー優先の姿勢が安全性を犠牲にし、この問題を助長したと主張している。Appleは、自社のイノベーションで安全とプライバシーの両方を優先していると主張している。

2月19日、ウェストバージニア州メイソン郡巡回裁判所は、司法長官JB McCuskey氏から、AppleがiCloud上の児童性的虐待素材(CSAM)の取り扱いで過失があったとする訴状を受け取った。訴状は、Apple幹部が2020年2月にはすでに問題を認識していたと主張し、Eric FriedmanとHerve Sibert間のiMessageのスクリーンショットを根拠としている。一つのやり取りで、FriedmanはiCloudを「児童ポルノを配布するための最高のプラットフォーム」と表現し、Appleが「本当に言えないほど多くの場所で知らないことを選んだ」と述べたとされる。彼はまた、同社がCSAM問題を過少報告している疑いがあり、検知努力に関するNew York Timesの記事を引用した。 訴状は、AppleのNational Center for Missing and Exploited Childrenへの報告数が低い点を強調している:2023年はわずか267件の検知に対し、Googleは147万件、Metaは3,060万件である。2021年のiCloud写真のCSAMスキャン計画をプライバシー懸念で放棄し、2022年12月にAdvanced Data Protectionを導入してiCloudの写真とビデオのエンドツーエンド暗号化を可能にした点を批判している。McCuskey氏は、この暗号化が法執行機関のCSAM加害者特定と起訴を妨げると主張する。 「児童捕食者のプライバシーを守るのは絶対に許されない」とMcCuskey氏は述べた。彼はAppleに対し、CSAM検知ツールの実施、画像報告、保存・共有の停止を求めている。 Appleは、安全とプライバシー、特に子どもたちへのコミットメントを強調して応じた。「進化する脅威に対抗し、子どもたちにとって最も安全で信頼できるプラットフォームを維持するため、毎日革新を続けている」と同社は述べた。Communication Safetyなどの機能を挙げ、これは18歳未満のユーザーにデフォルトで有効で、Messages、Photos、AirDrop、FaceTimeでの裸体を検知するが、成人向けCSAM配布は対象外である。 プライバシー擁護団体、Electronic Frontier Foundationを含むは暗号化を支持し、データ侵害や政府の過剰介入から守ると主張する。「暗号化はオンラインでのプライバシーを守る最良の方法であり、特に若者にとって重要だ」とEFFのThorin Klosowski氏は述べた。 この訴訟は類似の行動に続くもので、2024年の北カリフォルニアでの2,500人超のCSAM被害者の集団訴訟や、2024年8月のノースカロライナ州での9歳生存者を代表した訴訟を含む。検知措置の執行を求める政府機関による最初のものとして、差し止め救済と損害賠償を求める。

関連記事

Governor Gavin Newsom signs California's Digital Age Assurance Act, requiring OS age verification for safer online content.
AIによって生成された画像

カリフォルニア州、OS年齢確認を義務付けるDigital Age Assurance法を制定

AIによるレポート AIによって生成された画像

法成立が迫っているとの初期報道に続き、カリフォルニア州知事ギャビン・ニューサム氏がAB 1043、Digital Age Assurance法に署名した。この法は、オペレーティングシステム提供者にアカウント設定時にユーザーの年齢を収集し、API経由でアプリ開発者に共有することを義務付ける。2027年1月1日発効で、Windows、iOS、Android、macOS、SteamOS、Linuxディストリビューションなどの主要プラットフォームに適用され、生体認証なしで年齢に適したコンテンツを目指す。

テネシー州出身の3人の少女とその保護者が、イーロン・マスク氏のxAIに対し、クラスアクション訴訟を提起した。同社はGrok AIを実在の写真から児童性的虐待素材(CSAM)を生成するよう設計したと非難されている。この訴訟は、Discordからの情報提供をきっかけとした警察捜査から生じ、Grokが被害者の露骨な画像に関連付けられたものである。彼らは、数千人の潜在的に被害を受けた未成年者に対する差し止め命令と損害賠償を求めている。

AIによるレポート

オーストラリアの規制当局は、年齢確認のないAIサービスをアプリストアでブロックすることを義務づける構えで、若年ユーザーを成熟したコンテンツから守る。3月9日の期限を前にした動きで、準拠しないAI企業には罰金が科される可能性がある。地域の主要AIチャットサービスのわずかな割合しかこうした措置を実施していない。

カリフォルニア州の Digital Age Assurance Act(AB 1043)に関するこれまでの報道に続き—2025 年 10 月にガビン・ニューサム知事により署名され、2027 年 1 月 1 日に発効—この法律の年齢データ収集と API 共有の要件は、Ubuntu、Debian、Arch Linux、SteamOS などのボランティア駆動型オープンソースオペレーティングシステムにとって厳しいコンプライアンスのハードルを突きつける。

AIによるレポート

オハイオ州出身のジェームズ・ストラー2世(37)は火曜日、サイバーストーカー行為やAI生成による児童性的虐待画像の作成などの連邦罪について有罪を認めました。これは2025年に制定された「Take It Down Act」に基づき、初の有罪判決となります。ドナルド・トランプ大統領が署名したこの法律は、AIを用いて作成された同意のない性的画像を取り締まるものです。ストラーは数十種類のAIツールを悪用し、女性への嫌がらせや未成年者を含むわいせつ画像の作成を行っていました。

The Department of Information and Communications Technology (DICT) is studying a potential ban on the encrypted messaging app Telegram due to concerns over illegal activities like pornography and gambling. This follows a similar proposal for Signal earlier in the month. Rights groups worry about impacts on private communication rights.

AIによるレポート

カリフォルニア州の新法は、Linuxを含むすべてのOSがアカウント設定時に何らかの年齢確認を実施することを義務づけている。この立法はオンライン安全性の懸念に対処することを目的としている。施行の詳細は不明だ。

 

 

 

このウェブサイトはCookieを使用します

サイトを改善するための分析にCookieを使用します。詳細については、プライバシーポリシーをお読みください。
拒否