Hvad er Few-shot Prompting?
Few-shot prompting er en teknik, hvor du giver en AI-model et lille antal eksempler på den opgave, du vil have løst, inden du stiller det egentlige spørgsmål. Eksemplerne fungerer som skabeloner, der viser modellen det format, den tone og den logik, du forventer i svaret. Modellen lærer ikke i klassisk forstand, men den genkender mønsteret og tilpasser sit output derefter.
Teknikken er en af de mest effektive og tilgængelige metoder inden for Prompt Engineering. Hvor et simpelt spørgsmål uden eksempler (zero-shot) afhænger af modellens generelle træning, giver few-shot prompting et konkret holdepunkt, der kan løfte præcisionen fra tilfældig til næsten fejlfri.
For virksomheder er few-shot prompting relevant, fordi det kræver nul ekstra træning af modellen. Det sker udelukkende i prompten, hvilket gør det hurtigt at teste, billigt at implementere og nemt at justere.
Hvordan virker few-shot prompting?
Princippet er enkelt: du viser modellen, hvad du vil have, ved at give konkrete input-output-par. Hvis du eksempelvis vil klassificere kundehenvendelser, giver du to til fem eksempler på henvendelser med den korrekte kategori, og beder derefter modellen klassificere en ny henvendelse. Modellen genkender strukturen og følger mønsteret.
Det tekniske begreb for mekanismen er in-context learning. Modellen bruger eksemplerne som midlertidig kontekst i sit context window og tilpasser sit svar uden at ændre sine underliggende parametre. Det er en fundamental forskel fra fine-tuning, hvor modellen permanent justeres gennem yderligere træning.
Formatkonsistens er det, der får teknikken til at virke pålideligt. Hvis dine eksempler bruger strukturen "Tekst: [input] / Kategori: [output]", vil modellen forvente samme struktur for det nye input og udfylde det tilsvarende. Jo mere ensartet formatet er på tværs af eksemplerne, jo mere forudsigelig bliver outputtet.
Antallet af eksempler har betydning, men mere er ikke altid bedre. Forskning viser, at to til fem velvalgte eksempler typisk er tilstrækkeligt. Kvaliteten og diversiteten af eksemplerne har større indflydelse end mængden. Et vigtigt fund fra 2024-2025 er desuden, at avancerede ræsonneringsmodeller som o1 og DeepSeek R1 faktisk kan præstere dårligere med few-shot prompting, fordi eksemplerne forstyrrer deres interne ræsonneringsproces.
Vil du vide, hvordan few-shot prompting og andre prompt-teknikker kan effektivisere jeres AI-workflows? Kontakt Consile for en uforpligtende vurdering af jeres muligheder.
Few-shot prompting i erhvervslivet
Den mest udbredte anvendelse i virksomheder er tekstklassificering. Kundesupportafdelinger bruger few-shot prompting til at kategorisere indkommende henvendelser, så tickets automatisk sendes til det rette team. Ved at give modellen eksempler på korrekt kategoriserede tickets kan præcisionen nå over 90 procent uden nogen form for modelltræning.
Inden for marketing og kommunikation bruges teknikken til at generere indhold i en bestemt tone eller stil. En virksomhed kan give tre eksempler på godkendte LinkedIn-opslag og bede modellen producere nye opslag i samme format. Det sikrer konsistens på tværs af kanaler og reducerer den manuelle redigeringstid markant.
I regulerede brancher som finans, sundhed og jura er few-shot prompting værdifuld, fordi den styrer outputtet mod bestemte formuleringer og strukturer. Når en fejl kan have alvorlige konsekvenser, giver eksemplerne modellen et sikkerhedsnet, der reducerer risikoen for afvigende eller upræcise svar.
Softwareudvikling er et andet område, hvor few-shot prompting har vist sig effektiv. Ved at give eksempler på testcases eller dokumentation, der følger virksomhedens retningslinjer, kan udviklere automatisere en del af det repetitive arbejde og opnå hurtigere udviklingscyklusser.
Hvad few-shot prompting ikke er
Few-shot prompting er ikke det samme som fine-tuning. Fine-tuning ændrer modellens parametre permanent gennem træning på et datasæt, mens few-shot prompting kun påvirker det enkelte kald. Fordelen er fleksibilitet og hastighed. Ulempen er, at effekten forsvinder, når prompten afsluttes. For opgaver, der kræver dyb specialisering eller ændring af modellens grundlæggende adfærd, er fine-tuning ofte den bedre vej.
Det er heller ikke en universalløsning. Komplekse opgaver, der kræver flertrinslogi eller dyb domæneviden, løses sjældent tilfredsstillende alene med eksempler. Her kan teknikker som Chain of Thought eller RAG være nødvendige supplement.
Endelig er few-shot prompting ikke gratis i forhold til ressourcer. Hvert eksempel optager plads i modellens context window. Med mange eller lange eksempler kan man hurtigt nå grænsen, hvilket tvinger til prioritering af de mest repræsentative eksempler.
Relaterede termer
Prompt Engineering er kunsten at formulere instruktioner til AI-modeller for bedre resultater. Lær teknikker og eksempler.
Zero-shot learning er AI-modellers evne til at løse opgaver uden eksempler. Lær hvordan det virker, og hvornår det giver mening for din virksomhed.
Fine-tuning tilpasser en AI-model til et specifikt domæne. Lær hvornår fine-tuning er det rigtige valg fremfor RAG.
Context window er den mængde tekst, en AI-model kan behandle på én gang. Forstå hvorfor det påvirker kvaliteten af AI-løsninger og hvilke valg det kræver.
Prompt injection er den mest udbredte sårbarhed i AI-systemer. Forstå hvordan angreb fungerer, hvorfor de er farlige for virksomheder, og hvordan du beskytter dig.
Ofte stillede spørgsmål om Few-shot Prompting
Hvor mange eksempler skal jeg bruge i few-shot prompting?+
Typisk er to til fem eksempler tilstrækkeligt. Det vigtigste er, at eksemplerne er diverse og repræsentative for de variationer, modellen vil møde. Flere eksempler giver ikke nødvendigvis bedre resultater, men kan optage værdifuld plads i context window.
Kan few-shot prompting erstatte fine-tuning?+
I mange tilfælde ja, især for klassificering, formatering og stilkonsistens. Few-shot prompting er hurtigere at implementere og kræver ingen træningstid. Men for opgaver, der kræver dyb domæneviden eller ændret modeladfærd, er fine-tuning stadig nødvendig. Consile hjælper med at vurdere, hvilken tilgang der passer bedst til jeres use case.
Virker few-shot prompting med alle AI-modeller?+
Teknikken virker med alle større sprogmodeller (GPT, Claude, Gemini, Llama m.fl.), men effekten varierer. Nyere ræsonneringsmodeller som o1 kan faktisk præstere dårligere med few-shot-eksempler, fordi de forstyrrer modellens interne ræsonneringsproces. Test altid på den specifikke model, I bruger.