43% af danske topledere forventer, at AI reducerer antallet af juniorstillinger i deres...
Temperature er den parameter, der styrer, hvor forudsigelig eller kreativ en AI-models output er. Lær, hvornår du skruer op og ned for din virksomhed.


Når en LLM genererer tekst, beregner den en sandsynlighed for hvert muligt næste ord. Temperature skalerer disse sandsynligheder, inden modellen vælger sit output. Teknisk set justerer parameteren de såkaldte logits via softmax-funktionen, men effekten er nem at forstå.
Ved temperature 0 vælger modellen næsten altid det mest sandsynlige ord. Resultatet er deterministisk og forudsigeligt. Det samme spørgsmål giver stort set det samme svar hver gang. Det er ideelt, når præcision og konsistens er vigtigere end variation.
Ved temperature omkring 0,7 (standardindstillingen i mange systemer) får mindre sandsynlige ord en realistisk chance for at blive valgt. Outputtet bliver mere naturligt og varieret, men stadig sammenhængende. De fleste chatbaserede AI-værktøjer som ChatGPT og Claude bruger en temperaturværdi i dette område.
Ved temperature over 1,0 stiger tilfældigheden markant. Modellen vælger oftere overraskende ord, hvilket kan give kreative resultater, men også øge risikoen for usammenhængende eller faktuelt forkerte svar. Det er her, grænsen til AI-hallucinationer begynder at blive relevant.
Valget af temperature er en afvejning mellem pålidelighed og kreativitet. For virksomheder handler det om at matche AI-outputtet til den specifikke opgave.
Lav temperature (0,0-0,3) er det rigtige valg til kundesupport, juridisk compliance, teknisk dokumentation og dataudtræk. Her er konsistens og faktuel korrekthed afgørende. En Conversational AI-løsning til kundeservice bør give det samme korrekte svar, uanset hvornår kunden spørger.
Medium temperature (0,4-0,7) passer til de fleste forretningsscenarier: e-mails, rapportopsummeringer, produktbeskrivelser og intern kommunikation. Outputtet er professionelt og sammenhængende, men med nok variation til at føles naturligt.
Høj temperature (0,8-1,2) egner sig til brainstorming, idégenerering, marketingkoncepter og kreativt indhold. Når et marketingteam bruger Generativ AI til at producere ti forskellige kampagnevinkler, er en højere temperature en fordel. Men outputtet kræver altid menneskelig gennemgang.
En tommelfingerregel: Jo højere konsekvensen af en fejl er, desto lavere bør temperature være. Kundevendt compliance-indhold kræver temperature tæt på 0. Intern idéudvikling kan tåle mere frihed.
En udbredt misforståelse er, at høj temperature gør modellen klogere eller mere kreativ i egentlig forstand. Det gør den ikke. Temperature påvirker kun sandsynlighedsfordelingen over de mulige næste ord. Modellens viden, kontekstforståelse og ræsonneringsevne er uændrede. En høj temperature kan give overraskende kombinationer, men den kan lige så vel producere inkoherente output.
Temperature har heller ikke noget med modellens hukommelse at gøre. Context window og arkitekturen bestemmer, hvor meget kontekst modellen kan holde styr på. Temperature ændrer kun, hvordan modellen vælger sit næste ord inden for den kontekst, den allerede har.
Endelig er temperature ikke den eneste parameter, der påvirker output. Top-p (nucleus sampling) og frequency penalty spiller også en rolle. I praksis er det samspillet mellem disse parametre, der bestemmer, hvordan AI-outputtet føles.
LLM (Large Language Model): Den type AI-model, hvor temperature er en central parameter til styring af output.
Prompt Engineering: Disciplinen, der kombinerer formulering af instruktioner med parametervalg som temperature for at opnå det bedste resultat.
Generativ AI: Den overordnede kategori af AI, der skaber nyt indhold, og hvor temperature direkte påvirker kreativitetsniveauet.
AI Hallucinationer: Fænomenet, hvor AI opfinder fakta, som kan forværres ved for høj temperature.
Context Window: Den mængde tekst, modellen kan arbejde med, som er uafhængig af temperature-indstillingen.
Inference: Selve processen, hvor modellen genererer output, og hvor temperature bliver anvendt.