Fornecedor de KYC da OpenAI acusado de partilhar dados de utilizadores com agências dos EUA

Uma investigação de segurança acusou a Persona, a empresa responsável pelas verificações de 'conheça o seu cliente' da OpenAI, de enviar dados de utilizadores, incluindo endereços crypto, para agências federais como a FinCEN. Investigadores encontraram código que permite monitorizar e reportar atividades suspeitas. A Persona nega ligações atuais a agências federais.

A 18 de fevereiro, os investigadores de segurança vmfunc, MDL e Dziurwa publicaram uma investigação que revela código acessível publicamente no sistema da Persona que parece transmitir dados recolhidos durante o processo KYC da OpenAI à Rede de Cumprimento de Crimes Financeiros (FinCEN), um gabinete do Tesouro dos EUA. Estes dados incluem fotos de passaporte, selfies e vídeos submetidos por utilizadores para verificar a identidade e aceder a funcionalidades avançadas do ChatGPT. O código, em vigor desde novembro de 2023, integra-se também com a Chainalysis para triar endereços crypto associados quanto a riscos, analisar interações e permitir monitorização persistente através de um sistema de lista de vigilância. Os investigadores destacaram as capacidades da plataforma, afirmando: «A mesma empresa que tira a sua foto do passaporte ao inscrever-se no ChatGPT também opera uma plataforma governamental que apresenta Relatórios de Atividade Suspeita à FinCEN e os etiqueta com nomes de código de programas de inteligência». Adicionaram: «Então, carregou uma selfie para usar um chatbot? Parabéns! Agora está a ser comparada com uma base de dados de todos os políticos, chefes de Estado e as suas árvores genealógicas alargadas na Terra». Vários especialistas em segurança, incluindo Tanuki42 de grupos de resposta a incidentes blockchain, confirmaram a credibilidade das descobertas, notando que os domínios governamentais citados existem e provavelmente são alojados pela Persona. No entanto, persistem questões sobre motivos, utilização e critérios exatos para ativar triagens ou relatórios. O CEO da Persona, Rick Song, respondeu no X, expressando deceção e afirmando que os investigadores não o contactaram previamente. Em e-mails partilhados por Song, afirmou que a sua empresa não trabalha com nenhuma agência federal atualmente, embora não tenha abordado diretamente as implicações do código. Um post de Song dizia: «Estou genuinamente dececionado com a forma como tudo isto foi tratado» e elogiou o talento de vmfunc. A OpenAI e a Persona não responderam aos pedidos de comentário da DL News. As revelações levantam preocupações em meio ao crescente descontentamento com os requisitos KYC, que triam sanções, ligações ao terrorismo e crimes financeiros, mas também expõem os utilizadores a potenciais abusos de dados ou violações. Os períodos de retenção são incertos, com discrepâncias entre o limite de um ano declarado pela OpenAI e o código que indica até três anos ou armazenamento permanente para IDs governamentais.

Artigos relacionados

Illustration of Google's Gemini AI with Personal Intelligence feature integrating Gmail, Photos, Search, and YouTube for personalized responses.
Imagem gerada por IA

Google apresenta recurso Personal Intelligence para Gemini

Reportado por IA Imagem gerada por IA

O Google lançou o Personal Intelligence, um novo recurso para sua IA Gemini que integra dados do Gmail, Photos, Search e YouTube para fornecer respostas mais personalizadas. Disponível inicialmente para assinantes pagos nos EUA, a ferramenta opt-in enfatiza controles de privacidade do usuário e evita treinamento direto com dados pessoais. O rollout começa em beta, com planos para acesso mais amplo no futuro.

Discord has informed UK users that they may be part of an experiment using the age-assurance vendor Persona for verification, where submitted data is temporarily stored unlike previous promises. This change has raised privacy concerns among users, particularly due to Persona's links to investor Peter Thiel and his surveillance firm Palantir. The update is part of a broader global rollout of mandatory age verification starting in early March.

Reportado por IA

A OpenAI relatou um aumento dramático em incidentes de exploração infantil ao National Center for Missing & Exploited Children durante a primeira metade de 2025, enviando 80 vezes mais relatórios do que no mesmo período de 2024. A empresa atribuiu o aumento a capacidades de moderação expandidas, novas funcionalidades que permitem o upload de imagens e crescimento rápido de utilizadores. Este pico reflete preocupações mais amplas sobre a segurança infantil em plataformas de IA generativa.

Após um escândalo envolvendo o Grok da xAI gerando milhões de imagens abusivas, concorrentes OpenAI e Google implementaram novas medidas para prevenir mau uso similar. O incidente destacou vulnerabilidades em ferramentas de imagens de IA, provocando respostas rápidas da indústria. Essas etapas visam proteger usuários de imagens íntimas não consensuais.

Reportado por IA

A OpenAI está redirecionando recursos para melhorar seu chatbot principal ChatGPT, levando à saída de vários pesquisadores seniores. A empresa de São Francisco enfrenta concorrência intensa da Google e Anthropic, provocando uma mudança estratégica da pesquisa de longo prazo. Essa mudança gerou preocupações sobre o futuro da exploração inovadora de IA na empresa.

A Comissão de Proteção de Dados da Irlanda abriu uma investigação em grande escala contra a X relativamente à geração pelo chatbot de IA Grok de imagens sexualizadas potencialmente prejudiciais envolvendo dados de utilizadores da UE. A investigação examina o cumprimento das regras do RGPD após relatos de deepfakes não consentidos, incluindo os de crianças. Isto marca a segunda investigação da UE sobre o assunto, que se baseia numa investigação anterior ao abrigo da Lei dos Serviços Digitais.

Reportado por IA

Um relatório do Guardian revelou que o mais recente modelo de IA da OpenAI, GPT-5.2, recorre à Grokipedia, uma enciclopédia online alimentada pela xAI, ao abordar questões sensíveis como o Holocausto e a política iraniana. Embora promovido para tarefas profissionais, testes questionam a fiabilidade das suas fontes. A OpenAI defende a sua abordagem enfatizando pesquisas amplas na web com medidas de segurança.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar