Fournisseur KYC d'OpenAI accusé de partager des données utilisateurs avec des agences américaines

Une enquête de sécurité accuse Persona, la société gérant les vérifications « connaissez votre client » pour OpenAI, d'envoyer des données utilisateurs incluant des adresses crypto à des agences fédérales comme FinCEN. Des chercheurs ont découvert du code permettant la surveillance et le signalement d'activités suspectes. Persona nie tout lien actuel avec des agences fédérales.

Le 18 février, les chercheurs en sécurité vmfunc, MDL et Dziurwa ont publié une enquête révélant du code accessible publiquement dans le système de Persona qui semble transmettre des données collectées lors du processus KYC d'OpenAI au Réseau d'application des crimes financiers (FinCEN), un bureau du Trésor américain. Ces données incluent des photos de passeport, des selfies et des vidéos soumis par les utilisateurs pour vérifier leur identité afin d'accéder aux fonctionnalités avancées de ChatGPT. Le code, en place depuis novembre 2023, s'intègre également avec Chainalysis pour examiner les adresses crypto associées à des risques, analyser les interactions et permettre une surveillance persistante via un système de liste de surveillance. Les chercheurs ont mis en lumière les capacités de la plateforme, déclarant : « La même entreprise qui prend votre photo de passeport lors de l'inscription à ChatGPT exploite aussi une plateforme gouvernementale qui dépose des rapports d'activité suspecte auprès de FinCEN et les étiquette avec des noms de code de programmes de renseignement. » Ils ont ajouté : « Donc vous avez téléchargé un selfie pour utiliser un chatbot ? Félicitations ! Il est maintenant comparé à une base de données de tous les politiciens, chefs d'État et leur arbre généalogique étendu sur Terre. » Plusieurs experts en sécurité, dont Tanuki42 de groupes de réponse aux incidents blockchain, ont confirmé la crédibilité des découvertes, notant que les domaines gouvernementaux cités existent et sont probablement hébergés par Persona. Des questions subsistent cependant sur les motivations, l'utilisation et les critères exacts pour déclencher des criblages ou des rapports. Le PDG de Persona, Rick Song, a répondu sur X, exprimant sa déception et affirmant que les chercheurs ne l'avaient pas contacté au préalable. Dans des e-mails partagés par Song, il a déclaré que son entreprise ne travaille avec aucune agence fédérale aujourd'hui, sans aborder directement les implications du code. Un post de Song indiquait : « Je suis vraiment déçu de la manière dont tout cela a été géré », et il a loué le talent de vmfunc. OpenAI et Persona n'ont pas répondu aux demandes de commentaire de DL News. Ces révélations soulèvent des inquiétudes au milieu d'une méfiance croissante envers les exigences KYC, qui criblent les sanctions, liens terroristes et crimes financiers mais exposent aussi les utilisateurs à des abus potentiels de données ou des violations. Les durées de conservation sont floues, avec des divergences entre la limite d'un an annoncée par OpenAI et le code indiquant jusqu'à trois ans ou un stockage permanent pour les pièces d'identité gouvernementales.

Articles connexes

Illustration of Google's Gemini AI with Personal Intelligence feature integrating Gmail, Photos, Search, and YouTube for personalized responses.
Image générée par IA

Google introduit la fonction Personal Intelligence pour Gemini

Rapporté par l'IA Image générée par IA

Google a lancé Personal Intelligence, une nouvelle fonctionnalité pour son IA Gemini qui intègre des données de Gmail, Photos, Search et YouTube pour fournir des réponses plus personnalisées. Disponible initialement pour les abonnés payants aux États-Unis, cet outil opt-in met l'accent sur les contrôles de confidentialité des utilisateurs et évite l'entraînement direct sur les données personnelles. Le déploiement commence en bêta, avec des plans pour un accès plus large à l'avenir.

Discord a informé les utilisateurs britanniques qu'ils pourraient faire partie d'une expérience utilisant le fournisseur de garantie d'âge Persona pour la vérification, où les données soumises sont stockées temporairement contrairement aux promesses précédentes. Ce changement suscite des préoccupations en matière de confidentialité parmi les utilisateurs, en particulier en raison des liens de Persona avec l'investisseur Peter Thiel et sa société de surveillance Palantir. Cette mise à jour fait partie d'un déploiement mondial plus large de vérification d'âge obligatoire débutant début mars.

Rapporté par l'IA

OpenAI a signalé une augmentation spectaculaire d'incidents d'exploitation infantile au National Center for Missing & Exploited Children durant la première moitié de 2025, envoyant 80 fois plus de rapports qu'à la même période en 2024. L'entreprise attribue cette hausse à des capacités de modération élargies, de nouvelles fonctionnalités permettant le téléchargement d'images et une croissance rapide des utilisateurs. Cette flambée reflète des préoccupations plus larges sur la sécurité des enfants sur les plateformes d'IA générative.

Suite à un scandale impliquant Grok de xAI générant des millions d’images abusives, les concurrents OpenAI et Google ont mis en place de nouvelles mesures pour prévenir des abus similaires. L’incident a mis en lumière les vulnérabilités des outils d’images IA, provoquant des réponses rapides de l’industrie. Ces étapes visent à protéger les utilisateurs des images intimes non consenties.

Rapporté par l'IA

OpenAI réoriente ses ressources vers l'amélioration de son chatbot vedette ChatGPT, entraînant le départ de plusieurs chercheurs seniors. L'entreprise de San Francisco fait face à une concurrence intense de Google et Anthropic, provoquant un pivot stratégique loin de la recherche à long terme. Ce changement soulève des inquiétudes sur l'avenir de l'exploration innovante de l'IA au sein de la firme.

La Commission de protection des données d’Irlande a ouvert une enquête à grande échelle sur X concernant la génération par le chatbot IA Grok d’images sexualisées potentiellement nocives impliquant des données d’utilisateurs de l’UE. L’enquête examine le respect des règles du RGPD après des rapports sur des deepfakes non consentis, y compris ceux d’enfants. Il s’agit de la deuxième enquête de l’UE sur le sujet, s’appuyant sur une précédente enquête relative à la Loi sur les services numériques.

Rapporté par l'IA

Un rapport du Guardian a révélé que le dernier modèle d'IA d'OpenAI, GPT-5.2, puise dans Grokipedia, une encyclopédie en ligne alimentée par xAI, lorsqu'il aborde des questions sensibles comme l'Holocauste et la politique iranienne. Bien que vanté pour des tâches professionnelles, des tests remettent en question la fiabilité de ses sources. OpenAI défend son approche en insistant sur des recherches web étendues avec des mesures de sécurité.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser