Los estafadores envían correos electrónicos que parecen auténticos a usuarios de OpenAI, diseñados para manipularlos y hacer que revelen datos críticos rápidamente. Estos correos van seguidos de llamadas vishing que aumentan la presión sobre las víctimas para que divulguen detalles de sus cuentas. La campaña pone de relieve los riesgos continuos en la seguridad de las plataformas de IA.
La estafa dirigida a usuarios de OpenAI implica correos electrónicos diseñados para parecer auténticos, según informa un artículo de TechRadar publicado el 25 de enero de 2026. Estos mensajes aprovechan la familiaridad con la plataforma para engañar a los destinatarios y que proporcionen información sensible sin demora. Según la descripción, los correos sirven como gancho inicial que conduce a llamadas de vishing —phishing por voz—. En estas llamadas, los atacantes usan la urgencia y el engaño para obligar a las víctimas a compartir credenciales de inicio de sesión u otros detalles de cuenta. Este enfoque en varios pasos busca eludir las medidas de seguridad estándar de manera rápida. OpenAI, un desarrollador líder de IA, no ha emitido una respuesta específica en la información disponible, pero estas tácticas de phishing subrayan vulnerabilidades más amplias en los ecosistemas tecnológicos. Se aconseja a los usuarios verificar las comunicaciones a través de canales oficiales, aunque no se detallan pasos preventivos directos aquí. La efectividad del esquema depende del realismo de los correos, lo que dificulta a los individuos distinguirlos de notificaciones legítimas. Este incidente se suma a la creciente lista de amenazas cibernéticas que enfrentan los servicios de IA, donde la extracción rápida de datos puede llevar a accesos no autorizados. A medida que evolucionan las preocupaciones de ciberseguridad, incidentes como este enfatizan la necesidad de una mayor vigilancia entre los usuarios de herramientas basadas en la nube.