Blog
Kontakt os

Hvad er Fine-tuning?

Fine-tuning er processen med at tilpasse en eksisterende AI-model til et specifikt domæne, en bestemt stil eller en specialiseret opgave ved at træne den videre på et kurateret datasæt. I stedet for at bygge en model fra bunden, tager man en foundation model som GPT eller Claude og justerer den med eksempler, der afspejler det ønskede output.

Resultatet er en model, der performer bedre på netop din type opgave, end den generelle model ville gøre.

Læsetid 2 minOpdateret marts 2026

Hvordan virker fine-tuning?

Fine-tuning starter med en pretrænet model, der allerede har lært generel sprogforståelse fra enorme datamængder. Modellen trænes derefter videre på et mindre, men målrettet datasæt, der repræsenterer det specifikke domæne.

Træningsdatasættet består typisk af input/output-par: for eksempel kundehenvendelser parret med ideelle svar i virksomhedens tone, eller medicinske journalnoter parret med korrekte diagnosekoder.

Modellens parametre justeres, så den prioriterer mønstre fra det nye datasæt. Resultatet er en model, der bevarer sin generelle sprogforståelse, men nu er specifikt god til den pågældende opgave.

Consile hjælper med at vurdere, om fine-tuning, RAG eller en kombination er den rette tilgang til jeres use case. Kontakt os for en indledende vurdering.

Fine-tuning vs. RAG: Hvornår vælger du hvad?

Det er et af de mest stillede spørgsmål i enterprise AI, og svaret afhænger af opgaven:

Vælg RAG, når svaret afhænger af fakta, der ændrer sig over tid (priser, politikker, dokumentation). RAG henter information dynamisk og kræver ikke ny træning.

Vælg fine-tuning, når du vil ændre modellens adfærd, stil eller domæneviden permanent. For eksempel: en kundeservicemodel, der skal skrive i virksomhedens tone, eller en model, der skal forstå branchespecifik terminologi.

Kombinér begge, når du har brug for både domænespecifik adfærd og dynamisk adgang til opdaterede data. En fine-tuned model med RAG giver ofte det bedste resultat for komplekse enterprise use cases.

Hvad fine-tuning ikke er

Fine-tuning er ikke det samme som prompt engineering. Prompt engineering ændrer instruktionen til modellen. Fine-tuning ændrer selve modellen.

Fine-tuning er heller ikke en garanti for bedre resultater. Hvis datasættet er for lille, af dårlig kvalitet eller ikke repræsentativt, kan fine-tuning faktisk forringe modellens generelle evner. Datakvalitet er den vigtigste succesfaktor.

Ofte stillede spørgsmål om fine-tuning

Hvad koster fine-tuning?

Prisen varierer afhængigt af model og datamængde. Fine-tuning via API (for eksempel OpenAI) er relativt overkommeligt for små datasæt. On-premise fine-tuning kræver GPU-infrastruktur og er dyrere. Den største omkostning er ofte kuratereringen af træningsdata.

Hvor mange eksempler kræver fine-tuning?

Det afhænger af opgaven. For simpel stilændring kan 50 til 100 eksempler være nok. For kompleks domæneviden kræves typisk tusindvis af højkvalitetseksempler.

Kan vi fine-tune en model uden teknisk ekspertise?

De store cloud-udbydere tilbyder no-code fine-tuning-interfaces. Men datakuratering, evaluering og test kræver stadig domæneviden og AI-kompetence. Consile hjælper med hele processen.