AI-blog | Guides & værktøjer fra førende AI-konsulenter | Consile

GPT-5.5-Cyber: OpenAI's modsvar til Claude Mythos

Skrevet af Martin Mensbo Christiansen | 03-05-2026 21:10:08

OpenAI har på under en uge lanceret to modeller, der ændrer balancen i AI-kapløbet. GPT-5.5 kom 23. april som flagskibet, og GPT-5.5-Cyber fulgte 30. april som direkte modsvar til Anthropics Claude Mythos.

Forskellen ligger ikke kun i teknologien. Hvor Anthropic har valgt at låse Mythos af bag adgang for omkring 50 organisationer, går OpenAI den modsatte vej og åbner GPT-5.5-Cyber for myndigheder, kritisk infrastruktur, finanssektoren og cloud-platforme. Det er to fundamentalt forskellige strategier for at distribuere cyberkapable frontier-modeller, og det betyder noget for jer.

 

GPT-5.5 var først: Et flagskib, der gled under radaren

Lad os starte med base-modellen. GPT-5.5 blev lanceret 23. april med kodenavnet "Spud" og er ifølge OpenAI deres mest intuitive model til dato. Den klarer Terminal-Bench 2.0 med 82,7% og scorer 51,7% på FrontierMath niveau 1-3 og 35,4% på niveau 4. Det er målbare forbedringer over GPT-5.4.

Det interessante er ikke benchmarks alene. Greg Brockman, OpenAI's præsident, beskriver GPT-5.5 som et skridt mod den "super app", hvor ChatGPT, Codex og browser smelter sammen til én platform for enterprise-kunder. Vi skrev om OpenAI's super app-strategi tidligere på måneden, og GPT-5.5 er den motor, der skal drive den vision.

Prismæssigt koster GPT-5.5 $5 per 1M input tokens og $30 per 1M output tokens med 1M context window. GPT-5.5 Pro koster $30/$180 per 1M tokens. Det er højere end GPT-5.4, men OpenAI hævder, at den bruger færre tokens på samme opgave i Codex, så de reelle omkostninger ofte falder. Modellen er rullet ud til Plus, Pro, Business og Enterprise i ChatGPT samt Codex, og blev tilgængelig i API'et 24. april.

 

 

 

 

 

GPT-5.5-Cyber: Direkte modsvar til Claude Mythos

30. april annoncerede Sam Altman på X, at OpenAI begyndte udrulningen af GPT-5.5-Cyber til "kritiske cyberforsvarere" inden for få dage. Det skete syv dage efter base-modellen og lige under tre uger efter Anthropic præsenterede Project Glasswing og Claude Mythos.

GPT-5.5-Cyber er en specialiseret variant af GPT-5.5 finetunet til cyberarbejdsstrømme. Base-modellen fik "High"-rating på OpenAI's cyberrisikoskala, hvilket er lige under "Critical"-tærsklen for autonom zero-day exploit-udvikling. På CyberGym-benchmarken scorede GPT-5.5 81,8%, og den gennemførte 2 ud af 10 forsøg af en 32-trins netværksangrebs-simulation, hvilket kun overgås af Mythos.

Det er den kapacitet, der har fået både OpenAI og Anthropic til at lægge deres mest cyberkapable modeller bag adgangsporte. Forskellen er, hvor brede de porte er. Du kan ikke bare downloade GPT-5.5-Cyber. Den distribueres gennem Trusted Access for Cyber-programmet til myndigheder, kritisk infrastruktur, sikkerhedsleverandører, cloud-platforme og finanssektoren. Du kan ansøge på chatgpt.com/cyber, men adgang kræver verificering.

 

Trusted Access for Cyber: To filosofier i åben konflikt

Her bliver det interessant. Anthropics tilgang med Project Glasswing giver Mythos til omkring 50 organisationer i et tæt kontrolleret program. Anthropic har bekræftet, at Mythos aldrig vil blive offentligt tilgængelig. Til gengæld har de allokeret op til $100M i credits og $4M i donationer til open-source security.

OpenAI's Trusted Access for Cyber-program (TAC) skalerer i den modsatte retning. Programmet inkluderer allerede tusindvis af verificerede individuelle forsvarere og hundredvis af teams. Banker som Bank of America, BlackRock, BNY, Citi, JPMorgan Chase og Morgan Stanley er med, sammen med Cisco, Cloudflare, CrowdStrike, NVIDIA, Oracle, Palo Alto Networks og Zscaler. Dertil $10M i API-credits gennem Cybersecurity Grant Program.

OpenAI's argument er, at cybersikkerhed kræver bred distribution for at virke. Deres action plan har fem søjler: demokratisering af adgang, koordinering med myndigheder, sikkerhedsforanstaltninger omkring avancerede kapabiliteter, deploymentvisibilitet og brugernes egenbeskyttelse. ChatGPT modtager allerede over 15 millioner beskeder om måneden fra brugere, der spørger om noget er svindel, og det tal vil OpenAI bygge videre på.

Anthropic er forsigtig, fordi foundation-modellen kan misbruges. OpenAI er forsigtig, fordi adgang skal følge med trust og verifikation. Begge tilgange er rationelle. De er bare uforenelige.

 

Hvad det betyder for danske virksomheder

Hvis I driver kritisk infrastruktur, finansielle services eller har en SOC, er der en operationel beslutning at tage. Anthropic vil ikke give jer Mythos. OpenAI kan via TAC give jer GPT-5.5-Cyber, hvis I består verificeringen og opfylder sikkerhedskravene. Det er første gang en frontier cyber-AI er reelt tilgængelig for andre end de største amerikanske finansinstitutioner.

For resten af jer er den umiddelbare påvirkning ikke modeladgangen, men den nye trusselbaseline. Når frontier cybermodeller er bredt distribueret til forsvarere, er det rimeligt at antage, at angribere har eller får adgang til tilsvarende kapabiliteter, om end via andre kanaler. Vinduet fra bug-discovery til virkende exploit er allerede kollapset fra fem måneder i 2023 til ti timer i 2026, ifølge research præsenteret på Black Hat Asia.

Det betyder, at jeres patchingcyklusser, jeres dependencymanagement og jeres incident response skal accelerere tilsvarende. Kvartalsvise audits er en forældet praksis. Hvis jeres SOC stadig kører på en proces designet til 2023-trusselsbilledet, så er gabet allerede åbent.

 

Hvad du skal gøre nu

Tre ting at have på din liste denne uge. For det første: Hvis I er kvalificerede til Trusted Access for Cyber gennem jeres rolle i kritisk infrastruktur eller finanssektoren, så ansøg via chatgpt.com/cyber. Kapaciteten er reel, og verificeringsprocessen tager tid.

For det andet: Reevaluer jeres modelportefølje. GPT-5.5 er en uge gammel og leverer markante forbedringer i agentic coding og computer use. Vores tidligere indlæg om GPT-5.4 vs Claude 4.6 vs Gemini 3.1 er forældet allerede. Hvis I bygger på OpenAI eller Anthropic, er det værd at A/B-teste mod jeres konkrete AI-agent-workloads før kontrakter forlænges.

For det tredje: Tag cyber-AI-baseline alvorligt. Når frontiermodeller har "High"-rating på cyber-risiko, er trusselsbilledet ændret. Det handler ikke om, hvilket flag i kalenderen vi flytter til. Det handler om, at jeres infrastruktur skal kunne tåle, at angribere accelererer på samme kurve som forsvarere. AI-governance er ikke længere en compliance-øvelse, men en operationel forudsætning. Mere om det i vores indlæg om AI Governance.