Blog
Kontakt os

Hvad er Few-shot Prompting?

Few-shot prompting er en teknik, hvor du giver en AI-model et lille antal eksempler på den opgave, du vil have løst, inden du stiller det egentlige spørgsmål. Eksemplerne fungerer som skabeloner, der viser modellen det format, den tone og den logik, du forventer i svaret. Modellen lærer ikke i klassisk forstand, men den genkender mønsteret og tilpasser sit output derefter.

Teknikken er en af de mest effektive og tilgængelige metoder inden for Prompt Engineering. Hvor et simpelt spørgsmål uden eksempler (zero-shot) afhænger af modellens generelle træning, giver few-shot prompting et konkret holdepunkt, der kan løfte præcisionen fra tilfældig til næsten fejlfri.

For virksomheder er few-shot prompting relevant, fordi det kræver nul ekstra træning af modellen. Det sker udelukkende i prompten, hvilket gør det hurtigt at teste, billigt at implementere og nemt at justere.

Læsetid 3 minOpdateret marts 2026

Hvordan virker few-shot prompting?

Princippet er enkelt: du viser modellen, hvad du vil have, ved at give konkrete input-output-par. Hvis du eksempelvis vil klassificere kundehenvendelser, giver du to til fem eksempler på henvendelser med den korrekte kategori, og beder derefter modellen klassificere en ny henvendelse. Modellen genkender strukturen og følger mønsteret.

Det tekniske begreb for mekanismen er in-context learning. Modellen bruger eksemplerne som midlertidig kontekst i sit context window og tilpasser sit svar uden at ændre sine underliggende parametre. Det er en fundamental forskel fra fine-tuning, hvor modellen permanent justeres gennem yderligere træning.

Formatkonsistens er det, der får teknikken til at virke pålideligt. Hvis dine eksempler bruger strukturen "Tekst: [input] / Kategori: [output]", vil modellen forvente samme struktur for det nye input og udfylde det tilsvarende. Jo mere ensartet formatet er på tværs af eksemplerne, jo mere forudsigelig bliver outputtet.

Antallet af eksempler har betydning, men mere er ikke altid bedre. Forskning viser, at to til fem velvalgte eksempler typisk er tilstrækkeligt. Kvaliteten og diversiteten af eksemplerne har større indflydelse end mængden. Et vigtigt fund fra 2024-2025 er desuden, at avancerede ræsonneringsmodeller som o1 og DeepSeek R1 faktisk kan præstere dårligere med few-shot prompting, fordi eksemplerne forstyrrer deres interne ræsonneringsproces.

Vil du vide, hvordan few-shot prompting og andre prompt-teknikker kan effektivisere jeres AI-workflows? Kontakt Consile for en uforpligtende vurdering af jeres muligheder.

Few-shot prompting i erhvervslivet

Den mest udbredte anvendelse i virksomheder er tekstklassificering. Kundesupportafdelinger bruger few-shot prompting til at kategorisere indkommende henvendelser, så tickets automatisk sendes til det rette team. Ved at give modellen eksempler på korrekt kategoriserede tickets kan præcisionen nå over 90 procent uden nogen form for modelltræning.

Inden for marketing og kommunikation bruges teknikken til at generere indhold i en bestemt tone eller stil. En virksomhed kan give tre eksempler på godkendte LinkedIn-opslag og bede modellen producere nye opslag i samme format. Det sikrer konsistens på tværs af kanaler og reducerer den manuelle redigeringstid markant.

I regulerede brancher som finans, sundhed og jura er few-shot prompting værdifuld, fordi den styrer outputtet mod bestemte formuleringer og strukturer. Når en fejl kan have alvorlige konsekvenser, giver eksemplerne modellen et sikkerhedsnet, der reducerer risikoen for afvigende eller upræcise svar.

Softwareudvikling er et andet område, hvor few-shot prompting har vist sig effektiv. Ved at give eksempler på testcases eller dokumentation, der følger virksomhedens retningslinjer, kan udviklere automatisere en del af det repetitive arbejde og opnå hurtigere udviklingscyklusser.

Hvad few-shot prompting ikke er

Few-shot prompting er ikke det samme som fine-tuning. Fine-tuning ændrer modellens parametre permanent gennem træning på et datasæt, mens few-shot prompting kun påvirker det enkelte kald. Fordelen er fleksibilitet og hastighed. Ulempen er, at effekten forsvinder, når prompten afsluttes. For opgaver, der kræver dyb specialisering eller ændring af modellens grundlæggende adfærd, er fine-tuning ofte den bedre vej.

Det er heller ikke en universalløsning. Komplekse opgaver, der kræver flertrinslogi eller dyb domæneviden, løses sjældent tilfredsstillende alene med eksempler. Her kan teknikker som Chain of Thought eller RAG være nødvendige supplement.

Endelig er few-shot prompting ikke gratis i forhold til ressourcer. Hvert eksempel optager plads i modellens context window. Med mange eller lange eksempler kan man hurtigt nå grænsen, hvilket tvinger til prioritering af de mest repræsentative eksempler.

Ofte stillede spørgsmål om Few-shot Prompting

Hvor mange eksempler skal jeg bruge i few-shot prompting?

Typisk er to til fem eksempler tilstrækkeligt. Det vigtigste er, at eksemplerne er diverse og repræsentative for de variationer, modellen vil møde. Flere eksempler giver ikke nødvendigvis bedre resultater, men kan optage værdifuld plads i context window.

Kan few-shot prompting erstatte fine-tuning?

I mange tilfælde ja, især for klassificering, formatering og stilkonsistens. Few-shot prompting er hurtigere at implementere og kræver ingen træningstid. Men for opgaver, der kræver dyb domæneviden eller ændret modeladfærd, er fine-tuning stadig nødvendig. Consile hjælper med at vurdere, hvilken tilgang der passer bedst til jeres use case.

Virker few-shot prompting med alle AI-modeller?

Teknikken virker med alle større sprogmodeller (GPT, Claude, Gemini, Llama m.fl.), men effekten varierer. Nyere ræsonneringsmodeller som o1 kan faktisk præstere dårligere med few-shot-eksempler, fordi de forstyrrer modellens interne ræsonneringsproces. Test altid på den specifikke model, I bruger.