OpenAI har släppt en ny AI-modell, GPT-5.4-Cyber, exklusivt för verifierade cybersäkerhetsexperter. Den finjusterade versionen av deras GPT-5.4-modell syftar till att testa försvar mot jailbreaks och antagonistiska angrepp. Draget följer på Anthropics nyliga tillkännagivande av sin egen kraftfulla modell.
OpenAI tillkännagav GPT-5.4-Cyber på tisdagen via ett blogginlägg och begränsar åtkomsten till deltagare i sitt utökade Trusted Access for Cyber-program. Företaget uppgav att testare ska hjälpa till att identifiera luckor, potentiella jailbreaks och risker, samtidigt som de förbättrar motståndskraften mot antagonistiska angrepp och försvarsförmågor. OpenAI betonade användningen av feedback för att förstå modellens fördelar och minimera skador i ett cybersäkerhetslandskap präglat av AI-mot-AI. Modellen är en finjusterad variant av GPT-5.4, anpassad för cybersäkerhetsuppgifter med lägre skyddsvallar, vilket gör den mindre benägen att neka riskfyllda säkerhetsrelaterade förfrågningar. Detta gör det möjligt för experter att bedöma hur den skulle kunna användas som ett vapen av illasinnade aktörer. OpenAIs lansering verkar vara ett svar på Anthropics Project Glasswing, som presenterades förra veckan och introducerade Claude Mythos Preview. Anthropic rapporterade att de hittat säkerhetshål i alla större operativsystem och webbläsare med den modellen. OpenAI beskrev sina egna skyddsåtgärder som tillräckliga för att minska cyberrisken för tillfället, mitt i den pågående konkurrensen med Anthropic om kontrakt med myndigheter och företag. Båda företagen förstärker AI-säkerheten i takt med att modellerna blir kraftfullare, där cybersäkerhetsexperter ges tidig tillgång för att stärka försvaret.