Hvad er Prompt Engineering?
Prompt Engineering er disciplinen, der handler om at formulere instruktioner til AI-sprogmodeller, så de leverer det bedst mulige output. Et prompt er den tekst, du giver til en LLM, og kvaliteten af promptet har ofte større indflydelse på resultatet end valget af model.
God prompt engineering handler ikke om magiske formler, men om at kommunikere klart med modellen: specificere kontekst, definere formatet, give eksempler og sætte begrænsninger.
Grundteknikker i Prompt Engineering
Vær specifik: I stedet for 'skriv en tekst om AI', skriv 'skriv en 200 ords introduktion til AI for danske virksomhedsledere, i en professionel men tilgængelig tone'.
Giv kontekst: Fortæl modellen, hvem den skriver for, hvad formålet er, og hvilken rolle den skal indtage. For eksempel: 'Du er en erfaren AI-konsulent, der rådgiver en CFO.'
Brug eksempler (few-shot): Giv modellen 2 til 3 eksempler på det ønskede output. Det er ofte den mest effektive teknik til at styre stil og format.
Strukturér outputtet: Bed modellen om at svare i et bestemt format, for eksempel som JSON, en tabel eller en nummereret liste.
Tænk højt (Chain of Thought): Bed modellen om at ræsonnere trin for trin, inden den giver sit endelige svar. Det forbedrer præcisionen markant på komplekse opgaver.
Consile hjælper virksomheder med at udvikle prompt-strategier, system prompts og AI-retningslinjer. Kontakt os for at optimere jeres AI-implementering.
System Prompts og skabeloner
I enterprise-sammenhænge arbejder man sjældent med enkelt-prompts. I stedet bruger man system prompts, der definerer modellens rolle, begrænsninger og adfærd på tværs af alle interaktioner.
Et system prompt kan for eksempel specificere, at modellen altid skal svare på dansk, aldrig må give medicinsk rådgivning, og altid skal henvise til virksomhedens interne dokumenter via RAG.
Prompt templates er genanvendelige skabeloner, hvor variable dele (for eksempel kundenavn, produkttype) indsættes dynamisk. Det sikrer konsistens og gør det muligt at skalere AI-brugen uden at hver medarbejder skal være prompt engineer.
Hvad Prompt Engineering ikke er
Prompt Engineering er ikke et alternativ til fine-tuning eller RAG. Det er et komplementært værktøj. Prompt engineering styrer, hvordan modellen svarer. Fine-tuning ændrer, hvad modellen ved. RAG giver modellen adgang til specifik information.
Det er heller ikke en engangsøvelse. Gode prompts kræver iteration og test, præcis som anden softwareudvikling.
Relaterede termer
En LLM er en stor sprogmodel som GPT eller Claude, der forstår og genererer tekst. Lær hvad LLM'er er, og hvordan de bruges i virksomheder.
Chain of Thought er en prompt-teknik, der får AI til at ræsonnere trin for trin. Lær hvordan CoT forbedrer AI-output.
Generativ AI skaber nyt indhold som tekst, billeder og kode. Lær hvad GenAI er, hvordan det virker, og hvad det betyder for din virksomhed.
RAG kombinerer AI-modeller med virksomhedens egne data, så svarene er præcise og opdaterede. Lær hvad RAG er og hvordan det virker.
Ofte stillede spørgsmål om Prompt Engineering
Skal alle medarbejdere lære Prompt Engineering?+
Grundlæggende prompt-teknikker er nyttige for alle, der bruger AI-værktøjer. Avanceret prompt engineering (system prompts, prompt chaining, evaluering) er primært relevant for udviklere og AI-teams.
Virker de samme prompts på alle LLM'er?+
Principperne er de samme, men modeller reagerer forskelligt på prompts. Et prompt, der virker godt i GPT-4, skal muligvis justeres til Claude eller Mistral. Test altid på den model, I bruger i produktion.
Kan Prompt Engineering erstatte fine-tuning?+
I mange tilfælde ja, især med gode system prompts og few-shot eksempler. Men for opgaver, der kræver dyb domæneviden eller konsistent stil på tværs af tusindvis af interaktioner, er fine-tuning ofte mere effektivt.