Op mod 56 % af alle Google-søgninger ender i dag uden et eneste klik. For B2B-virksomheder, der har...
En reasoning model tænker trin for trin, før den giver et svar. Forstå hvordan ræsonneringsmodeller adskiller sig fra standard-LLM'er, og hvornår de skaber værdi.


En reasoning model adskiller sig fra en klassisk sprogmodel ved at producere en intern tankekæde, før den leverer sit svar. Denne tankekæde kaldes ofte Chain of Thought (CoT). I stedet for at generere output direkte, opdeler modellen problemet i deltrin, evaluerer mellemresultater og korrigerer sig selv undervejs.
Teknisk set opnås dette typisk gennem reinforcement learning (RL). Under træningen belønnes modellen for at nå korrekte resultater, og den lærer gradvist at udvikle interne strategier som selvkontrol, tilbagesporing ved fejl og nedbrydning af komplekse problemer i mindre dele. DeepSeek R1 demonstrerede i januar 2025, at ren RL-træning kan producere disse evner uden manuelt udarbejdede eksempler på ræsonnement.
Reasoning-modeller bruger markant flere tokens pr. forespørgsel end standardmodeller. Det skyldes, at selve tænkeprocessen også genereres som tekst. Hos nogle udbydere, som OpenAI, vises kun et resumé af tankekæden, mens andre, som DeepSeek, gør hele ræsonnementet synligt i dedikerede tags.
En vigtig egenskab er inferensskalering: jo mere beregningstid modellen får, desto bedre bliver resultatet. Det giver brugeren mulighed for at vælge mellem hurtige, billige svar og langsomme, præcise svar afhængigt af opgavens kompleksitet.
Reasoning-modeller skaber størst værdi, når opgaven kræver flere trin, logisk sammenhæng eller analyse af komplekse sammenhænge. For virksomheder betyder det, at de er særligt velegnede til opgaver, der traditionelt kræver erfarne specialister.
Inden for finans kan reasoning-modeller analysere kontrakter, identificere risici og producere strukturerede vurderinger, der tager højde for flere faktorer samtidig. I softwareudvikling bruges de til kodereview, fejlfinding og arkitekturbeslutninger, hvor modellen systematisk gennemgår kode og foreslår rettelser med forklaring.
Strategisk planlægning er et andet område med stort potentiale. Reasoning-modeller kan vurdere markedsscenarier, sammenligne handlemuligheder og opstille pro/con-analyser, der er mere nuancerede end output fra en standard generativ AI-model.
For AI-agenter er reasoning-evner afgørende. En agent, der skal planlægge og udføre flertrinskopgaver autonomt, har brug for den strukturerede tænkning, som reasoning-modeller leverer. Derfor er reasoning-modeller ofte kernen i moderne agentic AI-arkitekturer.
Det er dog vigtigt at vælge rigtigt. Reasoning-modeller koster mere pr. forespørgsel og er langsommere. Til simple opgaver som tekstgenerering, oversættelse eller opsummering er en standard-LLM typisk det bedre valg.
En reasoning model er ikke en AI, der forstår verden på samme måde som et menneske. Selvom tankekæden ligner menneskelig ræsonnering, er der tale om statistisk mønstergenkendelse i stor skala. Forskning fra bl.a. Apple har vist, at reasoning-modeller kan opleve et "complexity collapse", hvor præcisionen falder drastisk, når problemerne bliver tilstrækkeligt komplekse. Modellerne er altså ikke ufejlbarlige logikere.
Det er også en misforståelse, at reasoning-modeller altid er bedre end standardmodeller. Ved enkle opgaver med lav kompleksitet kan en standard-LLM faktisk levere bedre og hurtigere resultater. Reasoning-modellens ekstra tænketid tilfører kun værdi, når opgaven reelt kræver flere trin eller nuanceret analyse.
Endelig bør man ikke forveksle reasoning-modeller med prompt engineering-teknikker som Chain of Thought-prompting. CoT-prompting beder en standardmodel om at tænke trin for trin via instruktioner i prompten. En reasoning model er derimod trænet til at ræsonnere af sig selv, uden at brugeren behøver at bede om det.
Chain of Thought (CoT): Teknikken bag trinvis ræsonnering, som reasoning-modeller bruger internt og automatisk.
LLM (Large Language Model): Den bredere modelkategori, som reasoning-modeller er en specialiseret variant af.
Foundation Model: De store basismodeller, der kan finjusteres eller udvides med reasoning-evner.
Agentic AI: AI-systemer der handler autonomt, ofte drevet af reasoning-modeller som ræsonneringsmotor.
Test-Time Compute: Det princip, at man bruger ekstra beregning ved inferens for at forbedre outputkvaliteten.
Inference: Selve processen, hvor en AI-model genererer output baseret på input.
Op mod 56 % af alle Google-søgninger ender i dag uden et eneste klik. For B2B-virksomheder, der har...
Forestil dig en fremtid, hvor dine kunder aldrig besøger din hjemmeside igen. Ikke fordi du har...
AI kan nu producere videoer af jeres CEO, der er umulige at skelne fra ægte optagelser. Spørgsmålet...