OpenAIのKYCプロバイダー、ユーザー情報を米当局と共有した疑い

セキュリティ調査で、OpenAIのKYC(本人確認)チェックを担うPersona社が、暗号通貨アドレスを含むユーザー情報をFinCENなどの連邦機関に送信したと非難された。研究者らは、疑わしい活動の監視と報告を可能にするコードを発見した。Personaは現在、連邦機関とのつながりを否定している。

2月18日、セキュリティ研究者のvmfunc、MDL、Dziurwaが調査を公開し、Personaのシステムに公開可能なコードがあり、OpenAIのKYCプロセスで収集されたデータを米財務省の金融犯罪取締ネットワーク(FinCEN)に送信しているように見えることを明らかにした。このデータには、パスポート写真、セルフィー、ChatGPTの高度な機能にアクセスするための本人確認用にユーザーが提出したビデオが含まれる。2023年11月から稼働中のこのコードは、Chainalysisとも連携し、関連する暗号通貨アドレスをリスクでスクリーニングし、やり取りを分析し、ウォッチリストシステムによる継続監視を可能にしている。 研究者らはプラットフォームの機能を強調し、「ChatGPTに登録する際にパスポート写真を撮るのと同じ企業が、政府プラットフォームを運営し、FinCENに不審活動報告を提出し、インテリジェンスプログラムのコードネームでタグ付けしている」と述べた。彼らはさらに、「チャットボットを使うためにセルフィーをアップロードしたのか?おめでとう!今や地球上のすべての政治家、国家元首、その拡張家系図のデータベースと照合されている」と付け加えた。 ブロックチェーンインシデント対応グループのTanuki42を含む複数のセキュリティ専門家が発見の信頼性を確認し、引用された政府ドメインが存在し、Personaがホスティングしている可能性が高いと指摘した。しかし、動機、使用状況、スクリーニングや報告のトリガー基準については疑問が残る。 PersonaのCEO、リック・ソング氏はXで反応し、失望を表明し、研究者らが事前に連絡しなかったと主張した。ソング氏が共有したメールでは、同社が現在どの連邦機関とも業務していないと述べたが、コードの影響については直接触れなかった。ソング氏の投稿には「これらの扱われ方に本気で失望している」とあり、vmfuncの才能を称賛した。OpenAIとPersonaはDL Newsのコメント要請に応じなかった。 これらの暴露は、制裁、テロ関連、金融犯罪をスクリーニングするKYC要件に対する懸念が高まる中で懸念を呼び起こしているが、ユーザー データの潜在的な悪用や漏洩のリスクも伴う。保存期間は不明で、OpenAIが主張する1年限度とコードが示す最大3年または政府IDの永久保存との食い違いがある。

関連記事

Illustration of Google's Gemini AI with Personal Intelligence feature integrating Gmail, Photos, Search, and YouTube for personalized responses.
AIによって生成された画像

Google、Gemini向けPersonal Intelligence機能を導入

AIによるレポート AIによって生成された画像

GoogleはGemini AI向けの新機能Personal Intelligenceをリリースしました。この機能はGmail、Photos、Search、YouTubeのデータを統合し、よりパーソナライズされた応答を提供します。最初は米国有料購読者向けで、オプトイン形式でユーザー主導のプライバシー制御を強調し、個人データの直接訓練を避けます。ベータ版から展開開始し、今後より広範なアクセスを計画。

Discordは英国ユーザーに対し、年齢保証ベンダーPersonaを使用した検証実験に参加する可能性があると通知した。この実験では提出データが一時的に保存されるが、以前の約束とは異なっていた。この変更はユーザー間でプライバシー懸念を引き起こしており、特にPersonaが投資家Peter Thielとその監視企業Palantirとのつながりを持つためである。この更新は、3月上旬から始まる義務的な年齢確認のグローバル展開の一部だ。

AIによるレポート

OpenAIは2025年前半にNational Center for Missing & Exploited Childrenに対し児童搾取事件の劇的な増加を報告し、2024年同期間の80倍の報告を送付した。同社はこの増加を、モデレーション機能の拡大、画像アップロードを可能にする新機能、ユーザー数の急増によるものと説明している。この急増は、生成AIプラットフォームにおける児童安全への広範な懸念を反映している。

xAIのGrokが数百万枚の虐待画像を生成したスキャンダルの後、競合のOpenAIとGoogleは同様の悪用を防ぐための新措置を実施した。この事件はAI画像ツールの脆弱性を浮き彫りにし、業界の迅速な対応を促した。これらのステップは、同意のない親密な画像からユーザーを保護することを目的としている。

AIによるレポート

OpenAIは主力チャットボットChatGPTの改善にリソースをシフトしており、数名のシニア研究者の離脱を招いている。サンフランシスコの同社はGoogleやAnthropicからの激しい競争に直面し、長期研究からの戦略的ピボットを促している。この変化は、同社の革新的なAI探求の将来に対する懸念を引き起こしている。

アイルランドのデータ保護委員会は、EUユーザー データに関わるGrokの潜在的に有害な性的画像生成について、Xに対する大規模調査を開始した。この調査は、非合意のディープフェイク(子供を含む)の報告を受け、GDPR規則の遵守を検証するもので、EUで2件目の調査となる。以前のデジタルサービス法に基づく調査を基盤としている。

AIによるレポート

ガーディアン紙の報道によると、OpenAIの最新AIモデルGPT-5.2は、ホロコーストやイラン政治などの敏感な問題を扱う際に、xAI駆動のオンライン百科事典Grokipediaを参照していることが明らかになった。プロフェッショナルなタスク向けに宣伝されているが、テストではソースの信頼性が疑問視されている。OpenAIは広範なウェブ検索と安全対策を強調して対応を擁護している。

 

 

 

このウェブサイトはCookieを使用します

サイトを改善するための分析にCookieを使用します。詳細については、プライバシーポリシーをお読みください。
拒否