OpenAI lance GPT-5.4-Cyber pour les testeurs en cybersécurité

OpenAI a publié un nouveau modèle d'IA, GPT-5.4-Cyber, exclusivement destiné aux professionnels de la cybersécurité vérifiés. Cette version affinée de son modèle GPT-5.4 vise à tester les défenses contre les jailbreaks et les attaques adverses. Cette initiative fait suite à l'annonce récente par Anthropic de son propre modèle puissant.

OpenAI a annoncé GPT-5.4-Cyber mardi via un article de blog, limitant l'accès aux participants de son programme élargi « Trusted Access for Cyber ». L'entreprise a déclaré que les testeurs aideront à identifier les lacunes, les jailbreaks potentiels et les risques, tout en améliorant la résilience face aux attaques adverses et les capacités défensives. OpenAI a souligné l'utilisation des retours d'expérience pour comprendre les avantages du modèle et atténuer les préjudices dans un paysage de cybersécurité où l'IA affronte l'IA. Le modèle est une variante affinée de GPT-5.4, ajustée pour des tâches de cybersécurité avec des garde-fous réduits, ce qui le rend moins susceptible de refuser des requêtes risquées liées à la sécurité. Cela permet aux experts d'évaluer comment il pourrait être utilisé comme arme par des acteurs malveillants. La sortie d'OpenAI semble répondre au « Project Glasswing » d'Anthropic, dévoilé la semaine dernière, qui a introduit le « Claude Mythos Preview ». Anthropic a déclaré avoir trouvé des vulnérabilités de sécurité dans tous les principaux systèmes d'exploitation et navigateurs web avec ce modèle. OpenAI a décrit ses propres mesures de protection comme réduisant suffisamment les cyber-risques pour le moment, dans un contexte de concurrence continue avec Anthropic pour les contrats gouvernementaux et d'entreprise. Les deux sociétés renforcent la sécurité de l'IA à mesure que les modèles deviennent plus puissants, les professionnels de la cybersécurité bénéficiant d'un accès anticipé pour renforcer les défenses.

Articles connexes

Illustration of OpenAI's GPT-5.4 launch, showing enhanced AI models for knowledge work in a modern office setting amid competition.
Image générée par IA

OpenAI publie les modèles GPT-5.4 pour le travail du savoir

Rapporté par l'IA Image générée par IA

OpenAI a lancé GPT-5.4, incluant les variantes Thinking et Pro, destinées à améliorer les tâches agentiques et le travail du savoir. La mise à jour propose des capacités améliorées d'utilisation de l'ordinateur et une réduction des erreurs factuelles, dans un contexte de concurrence accrue d'Anthropic après une controverse sur un accord de défense américain. Les modèles sont disponibles immédiatement pour les utilisateurs payants et les développeurs.

Anthropic a limité l'accès à son modèle d'IA Claude Mythos Preview en raison de sa capacité supérieure à détecter et exploiter les vulnérabilités logicielles, tout en lançant le Project Glasswing, un consortium réunissant plus de 45 entreprises technologiques, dont Apple, Google et Microsoft, pour corriger les failles et renforcer les défenses de manière collaborative. Cette annonce fait suite à de récentes fuites de données au sein de l'entreprise.

Rapporté par l'IA

L'Institut de sécurité de l'IA du gouvernement britannique a publié une évaluation du modèle d'IA Mythos Preview d'Anthropic, confirmant ses solides performances dans les défis d'infiltration cybernétique en plusieurs étapes. Mythos est devenu le premier modèle à mener à bien une simulation d'attaque réseau exigeante en 32 étapes, baptisée « The Last Ones ». L'institut prévient toutefois que les défenses réelles pourraient limiter de telles menaces automatisées.

OpenAI a annoncé la mise à la retraite de plusieurs anciens modèles d'IA, dont le populaire GPT-4o, effective le 13 février. Cette décision fait suite à des réactions négatives précédentes lorsque l'entreprise a brièvement supprimé l'accès à GPT-4o l'an dernier. Seule une petite fraction d'utilisateurs utilise régulièrement le modèle, selon OpenAI.

Rapporté par l'IA

Dans une évaluation comparative de modèles d'IA leaders, le Gemini 3.2 Fast de Google a démontré des forces en précision factuelle sur le ChatGPT 5.2 d'OpenAI, particulièrement dans les tâches informationnelles. Les tests, motivés par le partenariat d'Apple avec Google pour améliorer Siri, mettent en lumière l'évolution des capacités de l'IA générative depuis 2023. Bien que les résultats fussent serrés, Gemini a évité des erreurs significatives qui ont miné la fiabilité de ChatGPT.

OpenAI prévoit d'introduire un "mode adulte" pour ChatGPT qui autorise les sextos. Julie Carpenter, experte en interaction entre l'homme et l'intelligence artificielle, prévient que cela pourrait conduire à un cauchemar en matière de protection de la vie privée. Elle attribue l'anthropomorphisation des utilisateurs de chatbots à la conception des outils.

Rapporté par l'IA

Le régulateur financier allemand, la BaFin, a mis en garde les banques contre les risques liés au modèle d'IA Claude Mythos d'Anthropic, à la suite des alertes du Trésor américain. Ce modèle détecte de manière autonome les vulnérabilités informatiques à grande échelle, ce qui pourrait accélérer les cyberattaques. Les banques américaines le testent actuellement sous réserve de restrictions.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser