OpenAI KYC provider accused of sharing user data with US agencies

A security investigation has accused Persona, the company handling know-your-customer checks for OpenAI, of sending user data including crypto addresses to federal agencies like FinCEN. Researchers found code that enables monitoring and reporting of suspicious activities. Persona denies current ties to federal agencies.

On February 18, security researchers vmfunc, MDL, and Dziurwa published an investigation revealing publicly accessible code in Persona's system that appears to transmit data collected during OpenAI's KYC process to the Financial Crimes Enforcement Network (FinCEN), a US Treasury bureau. This data includes passport photos, selfies, and videos submitted by users verifying their identity to access advanced ChatGPT features. The code, in place since November 2023, also integrates with Chainalysis to screen associated crypto addresses for risks, analyze interactions, and enable persistent monitoring via a watchlist system.

The researchers highlighted the platform's capabilities, stating, “The same company that takes your passport photo when you sign up for ChatGPT also operates a government platform that files Suspicious Activity Reports with FinCEN and tags them with intelligence programme codenames.” They added, “So you uploaded a selfie to use a chatbot? Congratulations! It’s now being compared against a database of every politician, head of state, and their extended family tree on earth.”

Multiple security experts, including Tanuki42 from blockchain incident response groups, confirmed the findings' credibility, noting that the cited government domains exist and are likely hosted by Persona. However, questions remain about motives, usage, and exact criteria for triggering screenings or reports.

Persona CEO Rick Song responded on X, expressing disappointment and claiming the researchers did not contact him beforehand. In emails shared by Song, he stated that his company does not work with any federal agency today, though he did not directly address the code's implications. A post from Song read, “I am genuinely disappointed in how all of this has been handled,” and praised vmfunc's talent. OpenAI and Persona did not respond to requests for comment from DL News.

The revelations raise concerns amid growing unease over KYC requirements, which screen against sanctions, terrorism links, and financial crimes but also expose users to potential data misuse or breaches. Retention periods are unclear, with discrepancies between OpenAI's stated one-year limit and code indicating up to three years or permanent storage for government IDs.

Relaterade artiklar

Illustration of Google's Gemini AI with Personal Intelligence feature integrating Gmail, Photos, Search, and YouTube for personalized responses.
Bild genererad av AI

Google introducerar Personal Intelligence-funktion för Gemini

Rapporterad av AI Bild genererad av AI

Google har lanserat Personal Intelligence, en ny funktion för sin Gemini AI som integrerar data från Gmail, Photos, Search och YouTube för att ge mer anpassade svar. Tillgänglig initialt för betalande prenumeranter i USA, betonar den opt-in-verktyget användarkontroller för integritet och undviker direkt träning på persondata. Utrullningen börjar i beta, med planer på bredare tillgång i framtiden.

Discord har informerat brittiska användare om att de kan ingå i ett experiment med åldersverifieringsleverantören Persona, där inskickade uppgifter temporärt lagras till skillnad från tidigare löften. Denna förändring har väckt integritetsoro bland användare, särskilt på grund av Personas kopplingar till investeraren Peter Thiel och hans övervakningsföretag Palantir. Uppdateringen är en del av en bredare global utrullning av obligatorisk åldersverifiering som startar i början av mars.

Rapporterad av AI

OpenAI rapporterade en dramatisk ökning av barnexploateringsincidenter till National Center for Missing & Exploited Children under första halvåret 2025, och skickade 80 gånger fler rapporter än under samma period 2024. Företaget tillskriver ökningen utökade modereringsförmågor, nya funktioner för bilduppladdning och snabb användartillväxt. Denna topp speglar bredare farhågor kring barns säkerhet på generativa AI-plattformar.

Efter en skandal där xAI:s Grok genererade miljontals kränkande bilder har konkurrenterna OpenAI och Google infört nya åtgärder för att förhindra liknande missbruk. Händelsen belyste sårbarheter i AI-bildverktyg och utlöste snabba reaktioner från branschen. Dessa steg syftar till att skydda användare mot icke-samtyckande intima bilder.

Rapporterad av AI

OpenAI flyttar resurser mot förbättringar av sin flaggskeppschattbot ChatGPT, vilket leder till att flera seniorforskare lämnar. San Francisco-företaget står inför intensiv konkurrens från Google och Anthropic, vilket driver en strategisk vändning från långsiktig forskning. Denna förändring väcker oro för framtiden för innovativ AI-utforskning på företaget.

Irlands dataskyddsmyndighet har inlett en storskalig utredning mot X angående AI-chattboten Groks generering av potentiellt skadliga sexualiserade bilder som involverar EU-användardata. Utredningen undersöker efterlevnaden av GDPR-regler efter rapporter om icke-samtyckade deepfakes, inklusive sådana med barn. Detta är den andra EU-utredningen i frågan, som bygger på en tidigare granskning enligt Digital Services Act.

Rapporterad av AI

En Guardian-rapport har avslöjat att OpenAIs senaste AI-modell, GPT-5.2, hämtar från Grokipedia, en xAI-driven onlineencyklopedi, när den hanterar känsliga ämnen som Förintelsen och iransk politik. Även om modellen hyllas för professionella uppgifter ifrågasätter tester källornas tillförlitlighet. OpenAI försvarar sin metod genom att betona breda websökningar med säkerhetsåtgärder.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj