Den 16. april 2026 lancerede Anthropic Claude Opus 4.7, og sammen med modellen fulgte en ny slash-kommando i Claude Code: /ultrareview. Det er ikke et almindeligt code review.
Det er en struktureret review-session, der læser dine ændringer igennem på samme måde, som en grundig menneskelig reviewer ville gøre. I dette indlæg får du det fulde billede: hvad kommandoen faktisk gør, hvordan den adskiller sig fra et normalt code review, og hvornår det giver mening at bruge den.
/ultrareview er en indbygget slash-kommando i Claude Code, altså Anthropics terminalbaserede udviklerværktøj. I stedet for at du spørger modellen "kan du gennemgå min PR?" i en almindelig chat, starter /ultrareview en dedikeret session med et fast formål: at finde bugs og designsvagheder.
Kommandoen er bygget oven på Opus 4.7 og kører som udgangspunkt på effort-niveauet xhigh, som er et nyt mellemtrin mellem high og max. Det betyder mere ræsonnement pr. ændring og dermed bedre dækning af edge cases, race conditions og logiske fejl, som en overfladisk gennemgang ofte misser.
Ifølge Anthropics egen lanceringstekst er /ultrareview designet til at flagge bugs og designproblemer, som en omhyggelig reviewer ville fange. Pro- og Max-brugere af Claude Code får tre gratis ultrareviews at prøve kommandoen af på, hvorefter forbruget tæller som almindeligt token-forbrug.
Når du kalder /ultrareview i Claude Code, starter modellen en isoleret session, der er optimeret til kritisk gennemgang i stedet for til samtale eller kodegenerering. Den læser dine ændringer, typisk en diff eller en afgrænset mængde filer, og går igennem fire hoveddimensioner: arkitektur, sikkerhed, performance og vedligeholdbarhed.
Ifølge udviklere, der har testet featuren i produktion, arbejder /ultrareview med en parallel multi-agent-tilgang under motorhjelmen. Det betyder, at flere instanser af modellen analyserer koden fra hver sin vinkel samtidigt, inden de samles til et sammenhængende output. I praksis giver det en dækning, der er tættere på en panelgennemgang end på en enkelt reviewers blik.
Sessionen bruger Opus 4.7's adaptive thinking, som Anthropic selv beskriver som den eneste thinking-mode i 4.7. Modellen beslutter selv, hvor dybt den skal ræsonnere pr. finding, så enkle filer får hurtig behandling, mens kompleks forretningslogik får den tunge analyse. Du kan ikke længere sætte en fast thinking-budget via API'et, som du kunne i Opus 4.6.
Output kommer struktureret som en liste af findings med sværhedsgrad, placering i koden og forslag til rettelser. CodeRabbit rapporterede i deres interne test, at Opus 4.7 løftede recall på code review-workloads med over 10 procent uden at miste precision, hvilket stemmer godt overens med det, tidlige brugere ser i /ultrareview-sessioner.
Et manuelt code review fra en kollega er uvurderligt, men det er også begrænset af tid, forudsætninger og af, hvor omhyggeligt den enkelte reviewer læser. /ultrareview rammer præcis de steder, hvor menneskelige reviews typisk misser.
Concurrency-bugs og race conditions er et klassisk eksempel. Warp, en af Anthropics early-access-partnere, rapporterede, at Opus 4.7 løste en concurrency-bug, som Opus 4.6 ikke kunne knække. Qodo fandt race conditions i deres kodebase, som tidligere best-in-class-modeller havde givet op på. Den slags fejl er svære at finde, fordi de ikke altid fremgår af den diff, du er ved at merge, men kræver, at reviewer forstår, hvad der sker parallelt i hele systemet.
Logiske fejl, der ikke bryder tests, er en anden kategori. Opus 4.7 er trænet til at fange fejl i planlægningsfasen, altså fejl i hvordan koden forholder sig til opgaven, ikke kun til syntaks. Hvis du har implementeret noget korrekt teknisk, men forkert funktionelt, vil /ultrareview typisk flage det.
Manglende fejlhåndtering er det tredje område, hvor modellen er markant stærkere. Hex rapporterede, at Opus 4.7 korrekt melder tilbage, når data mangler, i stedet for at levere plausibelt lydende, men forkerte fallbacks. Det gælder også for kodebaser: hvis du har glemt en error-path eller lavet en silent catch, der skjuler en reel fejl, fanger /ultrareview det oftere end både Opus 4.6 og traditionelle lintere.
Endelig skubber Opus 4.7 tilbage. Replit beskriver modellen som en, der udfordrer brugeren under tekniske diskussioner, hvilket betyder, at /ultrareview ikke bare nikker til dine valg, men udfordrer beslutninger, der ser tvivlsomme ud. Det er præcis den adfærd, der gør en senior reviewer værdifuld.
/ultrareview er ikke gratis, selv efter de tre gratis sessioner. En grundig gennemgang på xhigh-effort bruger betydelige mængder tokens, og Opus 4.7's nye tokenizer bruger 1,0 til 1,35 gange så mange tokens som 4.6 på det samme input. Det betyder, at du skal bruge kommandoen strategisk, ikke som default på hver PR.
Kommandoen giver mening i fire konkrete scenarier. Før en stor PR-merge til main er det klassiske use case: når koden skal ud i et stabilt miljø, og du vil have et sidste par øjne på arkitekturen, inden commiten bliver en del af historikken. Efter en større refaktorering er det andet åbenlyse tidspunkt, særligt hvis refactoren rører ved delte komponenter eller kritiske dataflows.
Security-relateret kode er et tredje scenarie. Opus 4.7 er den første Claude-model med produktionsklare cybersikkerhedsmekanismer indbygget, og modellen er trænet til at spotte mønstre, som menneskelige reviewere ofte overser, særligt i autentificering, inputhåndtering og eksterne integrationer. Det er ikke en erstatning for en rigtig security audit, men det er et godt første filter.
Endelig er der den kategori, vi kunne kalde "magefølelsen siger, der er noget galt". Hvis du har en fornemmelse af, at din kode har en subtil bug, du ikke kan sætte fingeren på, er /ultrareview langt mere effektivt end at starte forfra. Modellen ser koden med friske øjne og har ikke de samme blind spots som forfatteren.
Der er også situationer, hvor kommandoen er spild af tokens. Trivielle ændringer, småfixes i config-filer og simple tekstrettelser kræver ikke en dedikeret review-session. Brug den heller ikke som erstatning for unit-tests: /ultrareview finder logiske problemer, men tests verificerer, at koden virker.
Adgang til /ultrareview kræver, at du bruger Claude Code med en aktiv Pro- eller Max-plan. Kommandoen rulles ud automatisk til alle nyere versioner af Claude Code, så en opdatering af din CLI er typisk nok. De tre gratis sessioner gives pr. bruger, ikke pr. organisation, og nulstilles ikke. Når de er brugt, tæller efterfølgende reviews som almindeligt tokenforbrug.
I selve terminalen kalder du kommandoen ved at skrive /ultrareview i din session. Modellen beder typisk om kontekst: hvilke filer eller hvilken diff skal den gennemgå? Herefter starter den en dedikeret analyse og leverer en struktureret rapport, du kan arbejde videre med. Hvis du er Max-bruger, kan du kombinere /ultrareview med auto mode, som giver modellen lov til at træffe beslutninger selv under længere kørsler.
For virksomheder er pointen ikke, at /ultrareview erstatter din eksisterende reviewproces, men at den løfter den. En intern reviewer kan nå det, han plejer at nå på den tid, han har, og /ultrareview kan køre parallelt på hele PR'en og fange det, der ellers ville være sluppet igennem. Særligt for teams uden dedikerede seniorreviewere eller med høj tid-til-merge er gevinsten markant.
Hvis du arbejder med CRM-integrationer, automationspipelines eller AI-drevne workflows, er det værd at afprøve /ultrareview som en fast del af din releaseproces. Det tager ti minutter at sætte op, og de tre gratis reviews er mere end nok til at danne sig et indtryk af, om det giver værdi i din kontekst.