Les escrocs envoient des e-mails qui semblent authentiques aux utilisateurs d'OpenAI, conçus pour les manipuler afin qu'ils révèlent rapidement des données critiques. Ces e-mails sont suivis d'appels vishing qui accentuent la pression sur les victimes pour qu'elles divulguent les détails de leur compte. Cette campagne met en lumière les risques persistants en matière de sécurité des plateformes d'IA.
L'escroquerie visant les utilisateurs d'OpenAI implique des e-mails conçus pour paraître authentiques, comme rapporté dans un article de TechRadar publié le 25 janvier 2026. Ces messages exploitent la familiarité avec la plateforme pour tromper les destinataires et les inciter à fournir des informations sensibles sans délai. Selon la description, les e-mails servent d'appât initial menant à des appels vishing — phishing vocal. Lors de ces appels, les attaquants utilisent l'urgence et la tromperie pour contraindre les victimes à partager leurs identifiants de connexion ou d'autres détails de compte. Cette approche en plusieurs étapes vise à contourner rapidement les mesures de sécurité standard. OpenAI, un développeur leader d'IA, n'a pas publié de réponse spécifique dans les informations disponibles, mais de telles tactiques de phishing soulignent des vulnérabilités plus larges dans les écosystèmes technologiques. Les utilisateurs sont invités à vérifier les communications via les canaux officiels, bien qu'aucune mesure préventive directe ne soit détaillée ici. L'efficacité du stratagème repose sur le réalisme des e-mails, rendant difficile pour les individus de les distinguer des notifications légitimes. Cet incident s'ajoute à la liste croissante de cybermenaces visant les services d'IA, où l'extraction rapide de données peut entraîner un accès non autorisé. À mesure que les préoccupations en cybersécurité évoluent, des incidents comme celui-ci soulignent la nécessité d'une vigilance accrue chez les utilisateurs d'outils basés sur le cloud.