Blog
Kontakt os

Hvad er Chain of Thought?

Chain of Thought, forkortet CoT, er en prompt-teknik, der beder en AI-sprogmodel om at ræsonnere trin for trin, inden den giver sit endelige svar. I stedet for at modellen springer direkte til konklusionen, tvinges den til at vise sin tankeproces, hvilket markant forbedrer kvaliteten af svar på komplekse opgaver.

Teknikken blev introduceret i forskning fra Google i 2022 og er siden blevet en af de mest grundlæggende teknikker i prompt engineering.

Læsetid 2 minOpdateret marts 2026

Hvordan virker Chain of Thought?

I sin simpleste form handler CoT om at tilføje 'Tænk trin for trin' eller 'Forklar din ræsonnering' til promptet. Det får modellen til at generere mellemregningerne, inden den når konklusionen.

Eksempel uden CoT: 'Hvad er billigst: 3 stk. til 45 kr. eller 5 stk. til 70 kr.?' Modellen giver muligvis et forkert svar, fordi den springer til konklusionen.

Eksempel med CoT: 'Hvad er billigst: 3 stk. til 45 kr. eller 5 stk. til 70 kr.? Tænk trin for trin.' Modellen beregner stykprisen for begge (15 kr. vs. 14 kr.) og giver det korrekte svar.

Den trin-for-trin ræsonnering giver modellen 'plads til at tænke', hvilket reducerer fejl markant på opgaver, der kræver logik, matematik eller kompleks analyse.

Consile integrerer avancerede prompt-teknikker som CoT i enterprise AI-løsninger. Kontakt os for at optimere jeres AI-setup.

Varianter af Chain of Thought

Zero-shot CoT: Du beder simpelthen modellen om at tænke trin for trin, uden at give eksempler. Overraskende effektivt for mange opgaver.

Few-shot CoT: Du giver modellen 2 til 3 eksempler, hvor du selv viser den ønskede ræsonneringsproces. Modellen kopierer derefter mønsteret.

Self-consistency: Du kører det samme CoT-prompt flere gange og vælger det svar, der optræder oftest. Det øger pålideligheden.

Tree of Thought: En avanceret variant, hvor modellen udforsker flere ræsonneringsstier parallelt og vælger den bedste. Brugt i nyere model-arkitekturer.

Hvad Chain of Thought ikke er

CoT er ikke en garanti for korrekte svar. Modellen kan stadig ræsonnere forkert. Men synlig ræsonnering gør det muligt for mennesker at opdage fejl i logikken, i stedet for at stå med et uforklarligt svar.

Det er heller ikke nødvendigt til alle opgaver. For simple spørgsmål med entydige svar kan CoT faktisk gøre output unødigt langt. Brug det til komplekse opgaver, der kræver logik, analyse eller flertrinsvurderinger.

Ofte stillede spørgsmål om Chain of Thought

Virker Chain of Thought på alle LLM'er?

CoT virker bedst på større modeller med stærke ræsonneringsevner. Mindre modeller har ikke altid kapacitet til at ræsonnere meningsfuldt trin for trin. Generelt gælder: jo større model, jo mere effektiv er CoT.

Hvornår skal jeg bruge Chain of Thought?

Brug CoT, når opgaven kræver logik, matematik, sammenligning, analyse eller flertrinsvurderinger. For simple fakta-spørgsmål eller kreativ tekstgenerering er det sjældent nødvendigt.