Usuarios de OpenAI objetivo de correos de estafa y llamadas vishing

Los estafadores envían correos electrónicos que parecen auténticos a usuarios de OpenAI, diseñados para manipularlos y hacer que revelen datos críticos rápidamente. Estos correos van seguidos de llamadas vishing que aumentan la presión sobre las víctimas para que divulguen detalles de sus cuentas. La campaña pone de relieve los riesgos continuos en la seguridad de las plataformas de IA.

La estafa dirigida a usuarios de OpenAI implica correos electrónicos diseñados para parecer auténticos, según informa un artículo de TechRadar publicado el 25 de enero de 2026. Estos mensajes aprovechan la familiaridad con la plataforma para engañar a los destinatarios y que proporcionen información sensible sin demora. Según la descripción, los correos sirven como gancho inicial que conduce a llamadas de vishing —phishing por voz—. En estas llamadas, los atacantes usan la urgencia y el engaño para obligar a las víctimas a compartir credenciales de inicio de sesión u otros detalles de cuenta. Este enfoque en varios pasos busca eludir las medidas de seguridad estándar de manera rápida. OpenAI, un desarrollador líder de IA, no ha emitido una respuesta específica en la información disponible, pero estas tácticas de phishing subrayan vulnerabilidades más amplias en los ecosistemas tecnológicos. Se aconseja a los usuarios verificar las comunicaciones a través de canales oficiales, aunque no se detallan pasos preventivos directos aquí. La efectividad del esquema depende del realismo de los correos, lo que dificulta a los individuos distinguirlos de notificaciones legítimas. Este incidente se suma a la creciente lista de amenazas cibernéticas que enfrentan los servicios de IA, donde la extracción rápida de datos puede llevar a accesos no autorizados. A medida que evolucionan las preocupaciones de ciberseguridad, incidentes como este enfatizan la necesidad de una mayor vigilancia entre los usuarios de herramientas basadas en la nube.

Artículos relacionados

Los expertos en ciberseguridad están cada vez más alarmados por cómo la inteligencia artificial está transformando la ciberdelincuencia, con herramientas como deepfakes, phishing con IA y modelos de lenguaje grandes oscuros que permiten incluso a novatos ejecutar estafas avanzadas. Estos desarrollos representan riesgos significativos para las empresas en el próximo año. Las perspectivas publicadas por TechRadar subrayan la escala y sofisticación de estas amenazas emergentes.

Reportado por IA

En 2025, las ciberamenazas en Filipinas se mantuvieron en métodos tradicionales como el phishing y el ransomware, sin que emergieran nuevas formas. Sin embargo, la inteligencia artificial amplificó el volumen y la escala de estos ataques, lo que llevó a una 'industrialización del cibercrimen'. Informes de varias firmas de ciberseguridad destacan aumentos en la velocidad, escala y frecuencia de los incidentes.

Expertos han advertido que los ataques de phishing están apareciendo ahora en los comentarios de LinkedIn. Los piratas informáticos están explotando las secciones de comentarios de la plataforma para distribuir malware. Se aconseja a los usuarios que permanezcan vigilantes ante enlaces sospechosos en estas interacciones.

Reportado por IA

Un número creciente de empresas está evaluando los riesgos de seguridad asociados con la inteligencia artificial, lo que marca un cambio respecto a años anteriores. Esta tendencia indica una mayor conciencia entre las empresas sobre posibles vulnerabilidades en las tecnologías de IA. Este desarrollo se produce mientras las organizaciones priorizan medidas de protección contra amenazas emergentes.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar