OpenAI a publié un nouveau modèle d'IA, GPT-5.4-Cyber, exclusivement destiné aux professionnels de la cybersécurité vérifiés. Cette version affinée de son modèle GPT-5.4 vise à tester les défenses contre les jailbreaks et les attaques adverses. Cette initiative fait suite à l'annonce récente par Anthropic de son propre modèle puissant.
OpenAI a annoncé GPT-5.4-Cyber mardi via un article de blog, limitant l'accès aux participants de son programme élargi « Trusted Access for Cyber ». L'entreprise a déclaré que les testeurs aideront à identifier les lacunes, les jailbreaks potentiels et les risques, tout en améliorant la résilience face aux attaques adverses et les capacités défensives. OpenAI a souligné l'utilisation des retours d'expérience pour comprendre les avantages du modèle et atténuer les préjudices dans un paysage de cybersécurité où l'IA affronte l'IA. Le modèle est une variante affinée de GPT-5.4, ajustée pour des tâches de cybersécurité avec des garde-fous réduits, ce qui le rend moins susceptible de refuser des requêtes risquées liées à la sécurité. Cela permet aux experts d'évaluer comment il pourrait être utilisé comme arme par des acteurs malveillants. La sortie d'OpenAI semble répondre au « Project Glasswing » d'Anthropic, dévoilé la semaine dernière, qui a introduit le « Claude Mythos Preview ». Anthropic a déclaré avoir trouvé des vulnérabilités de sécurité dans tous les principaux systèmes d'exploitation et navigateurs web avec ce modèle. OpenAI a décrit ses propres mesures de protection comme réduisant suffisamment les cyber-risques pour le moment, dans un contexte de concurrence continue avec Anthropic pour les contrats gouvernementaux et d'entreprise. Les deux sociétés renforcent la sécurité de l'IA à mesure que les modèles deviennent plus puissants, les professionnels de la cybersécurité bénéficiant d'un accès anticipé pour renforcer les défenses.