Usuarios de OpenAI objetivo de correos de estafa y llamadas vishing

Los estafadores envían correos electrónicos que parecen auténticos a usuarios de OpenAI, diseñados para manipularlos y hacer que revelen datos críticos rápidamente. Estos correos van seguidos de llamadas vishing que aumentan la presión sobre las víctimas para que divulguen detalles de sus cuentas. La campaña pone de relieve los riesgos continuos en la seguridad de las plataformas de IA.

La estafa dirigida a usuarios de OpenAI implica correos electrónicos diseñados para parecer auténticos, según informa un artículo de TechRadar publicado el 25 de enero de 2026. Estos mensajes aprovechan la familiaridad con la plataforma para engañar a los destinatarios y que proporcionen información sensible sin demora. Según la descripción, los correos sirven como gancho inicial que conduce a llamadas de vishing —phishing por voz—. En estas llamadas, los atacantes usan la urgencia y el engaño para obligar a las víctimas a compartir credenciales de inicio de sesión u otros detalles de cuenta. Este enfoque en varios pasos busca eludir las medidas de seguridad estándar de manera rápida. OpenAI, un desarrollador líder de IA, no ha emitido una respuesta específica en la información disponible, pero estas tácticas de phishing subrayan vulnerabilidades más amplias en los ecosistemas tecnológicos. Se aconseja a los usuarios verificar las comunicaciones a través de canales oficiales, aunque no se detallan pasos preventivos directos aquí. La efectividad del esquema depende del realismo de los correos, lo que dificulta a los individuos distinguirlos de notificaciones legítimas. Este incidente se suma a la creciente lista de amenazas cibernéticas que enfrentan los servicios de IA, donde la extracción rápida de datos puede llevar a accesos no autorizados. A medida que evolucionan las preocupaciones de ciberseguridad, incidentes como este enfatizan la necesidad de una mayor vigilancia entre los usuarios de herramientas basadas en la nube.

Artículos relacionados

Los expertos en ciberseguridad están cada vez más alarmados por cómo la inteligencia artificial está transformando la ciberdelincuencia, con herramientas como deepfakes, phishing con IA y modelos de lenguaje grandes oscuros que permiten incluso a novatos ejecutar estafas avanzadas. Estos desarrollos representan riesgos significativos para las empresas en el próximo año. Las perspectivas publicadas por TechRadar subrayan la escala y sofisticación de estas amenazas emergentes.

Reportado por IA

Los delincuentes han distribuido extensiones falsas de IA en la Google Chrome Web Store para dirigirse a más de 300.000 usuarios. Estas herramientas buscan robar correos electrónicos, datos personales y otra información. El problema resalta los esfuerzos continuos por introducir software de vigilancia a través de canales legítimos.

El malware infostealer ha apuntado a los agentes de IA OpenClaw por primera vez, según un informe de TechRadar. El incidente resalta vulnerabilidades en sistemas de IA desplegados localmente que almacenan información sensible. El artículo se publicó el 17 de febrero de 2026.

Reportado por IA

Un escaneo reciente de millones de apps de Android ha revelado fugas de datos significativas desde software de IA, superando las expectativas en escala. Los secretos hardcodeados persisten en la mayoría de las aplicaciones de IA para Android hoy en día. Los hallazgos destacan riesgos continuos de privacidad en la tecnología móvil.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar