OpenAI ha lanzado un nuevo modelo de IA, GPT-5.4-Cyber, exclusivo para profesionales de ciberseguridad verificados. Esta versión optimizada de su modelo GPT-5.4 tiene como objetivo probar las defensas frente a vulneraciones de seguridad y ataques adversarios. Este movimiento se produce tras el reciente anuncio de Anthropic sobre su propio y potente modelo.
OpenAI anunció GPT-5.4-Cyber el martes a través de una entrada en su blog, limitando el acceso a los participantes de su programa ampliado Trusted Access for Cyber. La compañía declaró que los evaluadores ayudarán a identificar brechas, posibles vulneraciones y riesgos, a la vez que mejorarán la resistencia ante ataques adversarios y las capacidades defensivas. OpenAI destacó el uso de la retroalimentación para comprender los beneficios del modelo y mitigar los daños en un entorno de ciberseguridad donde se enfrentan IAs contra IAs. El modelo es una variante optimizada de GPT-5.4, ajustada para tareas de ciberseguridad con menores restricciones, lo que reduce la probabilidad de que rechace solicitudes relacionadas con la seguridad que puedan ser arriesgadas. Esto permite a los expertos evaluar cómo podría ser utilizado con fines malintencionados. El lanzamiento de OpenAI parece ser una respuesta al Project Glasswing de Anthropic, presentado la semana pasada, que introdujo el Claude Mythos Preview. Anthropic informó haber encontrado vulnerabilidades de seguridad en todos los sistemas operativos y navegadores web principales con dicho modelo. OpenAI describió sus propias salvaguardas como suficientes para reducir el riesgo cibernético por el momento, en medio de la competencia continua con Anthropic por contratos gubernamentales y empresariales. Ambas compañías están mejorando la seguridad de la IA a medida que los modelos se vuelven más potentes, otorgando a los profesionales de ciberseguridad acceso anticipado para reforzar las defensas.