Bedragare skickar mejl som verkar äkta till OpenAI-användare, utformade för att manipulera dem att snabbt avslöja kritiska uppgifter. Dessa mejl följs av vishing-samtal som ökar trycket på offren att lämna ut kontouppgifter. Kampanjen belyser pågående risker i säkerheten för AI-plattformar.
Bedrägeriet mot OpenAI-användare involverar mejl som är utformade för att se autentiska ut, enligt en artikel i TechRadar publicerad den 25 januari 2026. Dessa meddelanden utnyttjar plattformens bekantskap för att lura mottagarna att lämna känslig information utan dröjsmål. Enligt beskrivningen fungerar mejlen som en initial krok som leder till vishing – röstfiske – samtal. I dessa samtal använder angriparna brådska och bedrägeri för att tvinga offren att dela inloggningsuppgifter eller andra kontodetaljer. Denna flerstegsmetod syftar till att snabbt kringgå standardiserade säkerhetsåtgärder. OpenAI, en ledande AI-utvecklare, har inte gett något specifikt svar i den tillgängliga informationen, men sådana phishing-taktiker understryker bredare sårbarheter i tekniska ekosystem. Användare uppmanas att verifiera kommunikation via officiella kanaler, även om inga direkta förebyggande steg specificeras här. Schemat effekt bygger på mejlens realism, vilket gör det svårt för individer att skilja dem från legitima meddelanden. Denna händelse läggs till den växande listan över cyberhot mot AI-tjänster, där snabb dataextraktion kan leda till obehörig åtkomst. Medan cybersäkerhetsoro utvecklas betonar incidenter som denna behovet av ökad vaksamhet bland användare av molnbaserade verktyg.