OpenAI lanserar GPT-5.4-Cyber för cybersäkerhetstestare

OpenAI har släppt en ny AI-modell, GPT-5.4-Cyber, exklusivt för verifierade cybersäkerhetsexperter. Den finjusterade versionen av deras GPT-5.4-modell syftar till att testa försvar mot jailbreaks och antagonistiska angrepp. Draget följer på Anthropics nyliga tillkännagivande av sin egen kraftfulla modell.

OpenAI tillkännagav GPT-5.4-Cyber på tisdagen via ett blogginlägg och begränsar åtkomsten till deltagare i sitt utökade Trusted Access for Cyber-program. Företaget uppgav att testare ska hjälpa till att identifiera luckor, potentiella jailbreaks och risker, samtidigt som de förbättrar motståndskraften mot antagonistiska angrepp och försvarsförmågor. OpenAI betonade användningen av feedback för att förstå modellens fördelar och minimera skador i ett cybersäkerhetslandskap präglat av AI-mot-AI. Modellen är en finjusterad variant av GPT-5.4, anpassad för cybersäkerhetsuppgifter med lägre skyddsvallar, vilket gör den mindre benägen att neka riskfyllda säkerhetsrelaterade förfrågningar. Detta gör det möjligt för experter att bedöma hur den skulle kunna användas som ett vapen av illasinnade aktörer. OpenAIs lansering verkar vara ett svar på Anthropics Project Glasswing, som presenterades förra veckan och introducerade Claude Mythos Preview. Anthropic rapporterade att de hittat säkerhetshål i alla större operativsystem och webbläsare med den modellen. OpenAI beskrev sina egna skyddsåtgärder som tillräckliga för att minska cyberrisken för tillfället, mitt i den pågående konkurrensen med Anthropic om kontrakt med myndigheter och företag. Båda företagen förstärker AI-säkerheten i takt med att modellerna blir kraftfullare, där cybersäkerhetsexperter ges tidig tillgång för att stärka försvaret.

Relaterade artiklar

Illustration of OpenAI's GPT-5.4 launch, showing enhanced AI models for knowledge work in a modern office setting amid competition.
Bild genererad av AI

OpenAI releases GPT-5.4 models for knowledge work

Rapporterad av AI Bild genererad av AI

OpenAI has launched GPT-5.4, including variants Thinking and Pro, aimed at improving agentic tasks and knowledge work. The update features enhanced computer-use capabilities and reduced factual errors, amid competition from Anthropic following a US defense deal controversy. The models are available immediately to paid users and developers.

Anthropic has limited access to its Claude Mythos Preview AI model due to its superior ability to detect and exploit software vulnerabilities, while launching Project Glasswing—a consortium with over 45 tech firms including Apple, Google, and Microsoft—to collaboratively patch flaws and bolster defenses. The announcement follows recent data leaks at the firm.

Rapporterad av AI

The UK government’s AI Security Institute has released an evaluation of Anthropic's Mythos Preview AI model, confirming its strong performance in multistep cyber infiltration challenges. Mythos became the first model to fully complete a demanding 32-step network attack simulation known as 'The Last Ones.' The institute cautions that real-world defenses may limit such automated threats.

OpenAI has announced the retirement of several older AI models, including the popular GPT-4o, effective February 13. The decision follows previous backlash when the company briefly removed access to GPT-4o last year. Only a small fraction of users rely on the model regularly, according to OpenAI.

Rapporterad av AI

In a comparative evaluation of leading AI models, Google's Gemini 3.2 Fast demonstrated strengths in factual accuracy over OpenAI's ChatGPT 5.2, particularly in informational tasks. The tests, prompted by Apple's partnership with Google to enhance Siri, highlight evolving capabilities in generative AI since 2023. While results were close, Gemini avoided significant errors that undermined ChatGPT's reliability.

OpenAI plans to introduce an 'Adult Mode' for ChatGPT that allows sexting. Human-AI interaction expert Julie Carpenter warns this could lead to a privacy nightmare. She attributes user anthropomorphizing of chatbots to the tools' design.

Rapporterad av AI

Germany's financial regulator BaFin has warned banks about risks from Anthropic's Claude Mythos AI model, following US Treasury alerts. The model autonomously detects IT vulnerabilities at scale, potentially accelerating cyberattacks. US banks are testing it amid restrictions.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj