OpenAI KYC provider accused of sharing user data with US agencies

A security investigation has accused Persona, the company handling know-your-customer checks for OpenAI, of sending user data including crypto addresses to federal agencies like FinCEN. Researchers found code that enables monitoring and reporting of suspicious activities. Persona denies current ties to federal agencies.

On February 18, security researchers vmfunc, MDL, and Dziurwa published an investigation revealing publicly accessible code in Persona's system that appears to transmit data collected during OpenAI's KYC process to the Financial Crimes Enforcement Network (FinCEN), a US Treasury bureau. This data includes passport photos, selfies, and videos submitted by users verifying their identity to access advanced ChatGPT features. The code, in place since November 2023, also integrates with Chainalysis to screen associated crypto addresses for risks, analyze interactions, and enable persistent monitoring via a watchlist system.

The researchers highlighted the platform's capabilities, stating, “The same company that takes your passport photo when you sign up for ChatGPT also operates a government platform that files Suspicious Activity Reports with FinCEN and tags them with intelligence programme codenames.” They added, “So you uploaded a selfie to use a chatbot? Congratulations! It’s now being compared against a database of every politician, head of state, and their extended family tree on earth.”

Multiple security experts, including Tanuki42 from blockchain incident response groups, confirmed the findings' credibility, noting that the cited government domains exist and are likely hosted by Persona. However, questions remain about motives, usage, and exact criteria for triggering screenings or reports.

Persona CEO Rick Song responded on X, expressing disappointment and claiming the researchers did not contact him beforehand. In emails shared by Song, he stated that his company does not work with any federal agency today, though he did not directly address the code's implications. A post from Song read, “I am genuinely disappointed in how all of this has been handled,” and praised vmfunc's talent. OpenAI and Persona did not respond to requests for comment from DL News.

The revelations raise concerns amid growing unease over KYC requirements, which screen against sanctions, terrorism links, and financial crimes but also expose users to potential data misuse or breaches. Retention periods are unclear, with discrepancies between OpenAI's stated one-year limit and code indicating up to three years or permanent storage for government IDs.

Artikel Terkait

Illustration of Google's Gemini AI with Personal Intelligence feature integrating Gmail, Photos, Search, and YouTube for personalized responses.
Gambar dihasilkan oleh AI

Google memperkenalkan fitur Personal Intelligence untuk Gemini

Dilaporkan oleh AI Gambar dihasilkan oleh AI

Google telah meluncurkan Personal Intelligence, fitur baru untuk AI Gemini-nya yang mengintegrasikan data dari Gmail, Photos, Search, dan YouTube untuk memberikan respons yang lebih disesuaikan. Awalnya tersedia untuk pelanggan berbayar di AS, alat opt-in ini menekankan kontrol privasi pengguna dan menghindari pelatihan langsung pada data pribadi. Penyebaran dimulai dalam beta, dengan rencana akses lebih luas di masa depan.

Discord has informed UK users that they may be part of an experiment using the age-assurance vendor Persona for verification, where submitted data is temporarily stored unlike previous promises. This change has raised privacy concerns among users, particularly due to Persona's links to investor Peter Thiel and his surveillance firm Palantir. The update is part of a broader global rollout of mandatory age verification starting in early March.

Dilaporkan oleh AI

OpenAI melaporkan peningkatan dramatis insiden eksploitasi anak ke National Center for Missing & Exploited Children selama paruh pertama 2025, mengirimkan 80 kali lebih banyak laporan daripada periode yang sama di 2024. Perusahaan tersebut menghubungkan kenaikan tersebut dengan kemampuan moderasi yang diperluas, fitur baru yang memungkinkan unggahan gambar, dan pertumbuhan pengguna yang cepat. Lonjakan ini mencerminkan kekhawatiran yang lebih luas tentang keselamatan anak di platform AI generatif.

Setelah skandal yang melibatkan Grok milik xAI menghasilkan jutaan gambar kasar, pesaing OpenAI dan Google menerapkan langkah-langkah baru untuk mencegah penyalahgunaan serupa. Insiden ini menyoroti kerentanan pada alat gambar AI, memicu respons cepat dari industri. Langkah-langkah ini bertujuan melindungi pengguna dari gambar intim tanpa persetujuan.

Dilaporkan oleh AI

OpenAI sedang mengalihkan sumber daya untuk meningkatkan chatbot unggulannya ChatGPT, menyebabkan kepergian beberapa peneliti senior. Perusahaan San Francisco ini menghadapi persaingan sengit dari Google dan Anthropic, mendorong perubahan strategis dari penelitian jangka panjang. Perubahan ini menimbulkan kekhawatiran tentang masa depan eksplorasi AI inovatif di perusahaan tersebut.

Komisi Perlindungan Data Irlandia telah membuka penyelidikan berskala besar terhadap X terkait pembuatan chatbot AI Grok dari gambar seksualisasi berpotensi berbahaya yang melibatkan data pengguna UE. Penyelidikan ini memeriksa kepatuhan terhadap aturan GDPR setelah laporan tentang deepfake tanpa persetujuan, termasuk yang melibatkan anak-anak. Ini menandai penyelidikan UE kedua terkait isu ini, melanjutkan penyelidikan sebelumnya berdasarkan Digital Services Act.

Dilaporkan oleh AI

Laporan Guardian mengungkapkan bahwa model AI terbaru OpenAI, GPT-5.2, mengambil dari Grokipedia, ensiklopedia daring berbasis xAI, saat membahas isu sensitif seperti Holocaust dan politik Iran. Meskipun dipromosikan untuk tugas profesional, pengujian mempertanyakan keandalan sumbernya. OpenAI membela pendekatannya dengan menekankan pencarian web luas dengan langkah keamanan.

 

 

 

Situs web ini menggunakan cookie

Kami menggunakan cookie untuk analisis guna meningkatkan situs kami. Baca kebijakan privasi kami untuk informasi lebih lanjut.
Tolak