OpenAI har netop delt en detaljeret retrospektiv om Symphony, deres open source-agent-orkestrator,...
Few-shot prompting er teknikken, hvor du giver AI-modellen eksempler, før den løser en opgave. Forstå metoden, og hvornår den skaber mest værdi i praksis.


Princippet er enkelt: du viser modellen, hvad du vil have, ved at give konkrete input-output-par. Hvis du eksempelvis vil klassificere kundehenvendelser, giver du to til fem eksempler på henvendelser med den korrekte kategori, og beder derefter modellen klassificere en ny henvendelse. Modellen genkender strukturen og følger mønsteret.
Det tekniske begreb for mekanismen er in-context learning. Modellen bruger eksemplerne som midlertidig kontekst i sit context window og tilpasser sit svar uden at ændre sine underliggende parametre. Det er en fundamental forskel fra fine-tuning, hvor modellen permanent justeres gennem yderligere træning.
Formatkonsistens er det, der får teknikken til at virke pålideligt. Hvis dine eksempler bruger strukturen "Tekst: [input] / Kategori: [output]", vil modellen forvente samme struktur for det nye input og udfylde det tilsvarende. Jo mere ensartet formatet er på tværs af eksemplerne, jo mere forudsigelig bliver outputtet.
Antallet af eksempler har betydning, men mere er ikke altid bedre. Forskning viser, at to til fem velvalgte eksempler typisk er tilstrækkeligt. Kvaliteten og diversiteten af eksemplerne har større indflydelse end mængden. Et vigtigt fund fra 2024-2025 er desuden, at avancerede ræsonneringsmodeller som o1 og DeepSeek R1 faktisk kan præstere dårligere med few-shot prompting, fordi eksemplerne forstyrrer deres interne ræsonneringsproces.
Den mest udbredte anvendelse i virksomheder er tekstklassificering. Kundesupportafdelinger bruger few-shot prompting til at kategorisere indkommende henvendelser, så tickets automatisk sendes til det rette team. Ved at give modellen eksempler på korrekt kategoriserede tickets kan præcisionen nå over 90 procent uden nogen form for modelltræning.
Inden for marketing og kommunikation bruges teknikken til at generere indhold i en bestemt tone eller stil. En virksomhed kan give tre eksempler på godkendte LinkedIn-opslag og bede modellen producere nye opslag i samme format. Det sikrer konsistens på tværs af kanaler og reducerer den manuelle redigeringstid markant.
I regulerede brancher som finans, sundhed og jura er few-shot prompting værdifuld, fordi den styrer outputtet mod bestemte formuleringer og strukturer. Når en fejl kan have alvorlige konsekvenser, giver eksemplerne modellen et sikkerhedsnet, der reducerer risikoen for afvigende eller upræcise svar.
Softwareudvikling er et andet område, hvor few-shot prompting har vist sig effektiv. Ved at give eksempler på testcases eller dokumentation, der følger virksomhedens retningslinjer, kan udviklere automatisere en del af det repetitive arbejde og opnå hurtigere udviklingscyklusser.
Few-shot prompting er ikke det samme som fine-tuning. Fine-tuning ændrer modellens parametre permanent gennem træning på et datasæt, mens few-shot prompting kun påvirker det enkelte kald. Fordelen er fleksibilitet og hastighed. Ulempen er, at effekten forsvinder, når prompten afsluttes. For opgaver, der kræver dyb specialisering eller ændring af modellens grundlæggende adfærd, er fine-tuning ofte den bedre vej.
Det er heller ikke en universalløsning. Komplekse opgaver, der kræver flertrinslogi eller dyb domæneviden, løses sjældent tilfredsstillende alene med eksempler. Her kan teknikker som Chain of Thought eller RAG være nødvendige supplement.
Endelig er few-shot prompting ikke gratis i forhold til ressourcer. Hvert eksempel optager plads i modellens context window. Med mange eller lange eksempler kan man hurtigt nå grænsen, hvilket tvinger til prioritering af de mest repræsentative eksempler.
Prompt Engineering: Den overordnede disciplin, som few-shot prompting hører under. Dækker alle teknikker til at formulere effektive instruktioner til AI-modeller.
Zero-shot Learning: Når modellen løser en opgave uden eksempler, udelukkende baseret på sin trænede viden. Enklere, men ofte mindre præcist.
Chain of Thought (CoT): En teknik, der beder modellen om at ræsonnere trin for trin. Kan kombineres med few-shot prompting for komplekse opgaver.
Fine-tuning: Permanent justering af en models parametre gennem yderligere træning. Et alternativ til few-shot prompting, når opgaven kræver dybere specialisering.
LLM (Large Language Model): De sprogmodeller, som few-shot prompting anvendes på. Teknikken virker med alle større modeller som GPT, Claude og Gemini.
Context Window: Det samlede antal tokens, en model kan behandle i et enkelt kald. Few-shot-eksempler optager plads i dette vindue.