Blog
Kontakt os

Hvad er AI Hallucinationer?

AI-hallucinationer er et fænomen, hvor en sprogmodel genererer output, der lyder overbevisende og selvsikkert, men som er faktuelt forkert, opfundet eller misvisende. Det kan være fiktive referencer, forkerte tal, opdigtede citater eller svar, der simpelthen ikke stemmer overens med virkeligheden.

Hallucinationer er en iboende egenskab ved LLM'er, ikke en fejl, der kan 'fixes'. Fordi sprogmodeller fungerer ved at forudsige sandsynlige ordsekvenser, vil de altid kunne producere output, der lyder rigtigt men er forkert.

Læsetid 2 minOpdateret marts 2026

Hvorfor hallucinerer AI-modeller?

LLM'er er trænet til at generere sandsynlige svar, ikke sande svar. Modellen ved ikke, hvad der er faktuelt korrekt. Den producerer tekst baseret på statistiske mønstre fra træningsdata.

Hallucinationer opstår typisk i tre situationer:

Manglende viden: Når modellen bliver spurgt om noget, der ikke er dækket i dens træningsdata, opfinder den et plausibelt svar i stedet for at sige 'det ved jeg ikke'.

Modstridende information: Når træningsdata indeholder modsatrettede oplysninger, kan modellen blande dem sammen og producere et svar, der ikke stemmer.

Overdreven selvsikkerhed: LLM'er er designet til at give autoritative svar. De sjældent signalerer usikkerhed, hvilket gør det svært for brugeren at vurdere pålideligheden.

Consile hjælper med at designe AI-løsninger, der minimerer hallucinations-risikoen. Kontakt os for at drøfte, hvordan I sikrer pålidelige AI-output.

Hvordan reducerer du hallucinationer?

RAG (Retrieval-Augmented Generation): Den mest effektive metode. Ved at give modellen adgang til verificerede dokumenter som kontekst, reduceres risikoen for opdigtede svar markant.

Temperature-indstilling: En lavere temperature (tæt på 0) gør modellens svar mere deterministiske og konservative, hvilket reducerer kreative men ukorrekte svar.

Guardrails: Implementér automatiske kontroller, der validerer AI-output mod kendte fakta eller forretningsregler, inden de præsenteres for brugeren.

Source attribution: Design systemet, så modellen altid angiver sine kilder. Svar uden kilder er et rødt flag.

Human review: For kritiske use cases (juridisk, medicinsk, finansielt) bør AI-output altid gennemgås af et menneske.

Hvad hallucinationer ikke er

Hallucinationer er ikke det samme som AI, der lyver. Modellen har ingen intention om at vildlede. Den producerer simpelthen det mest sandsynlige svar baseret på sine mønstre, uanset om det tilfældigvis er korrekt.

Det er heller ikke et problem, der kan elimineres helt. Selv med RAG og guardrails kan hallucinationer forekomme. Målet er at reducere dem til et acceptabelt niveau og sikre, at brugeren ved, hvornår svaret er verificeret.

Ofte stillede spørgsmål om AI-hallucinationer

Kan hallucinationer elimineres helt?

Nej, ikke med nuværende teknologi. Men de kan reduceres markant med RAG, guardrails, lav temperature og human review. For de fleste enterprise use cases kan risikoen bringes ned til et acceptabelt niveau.

Hvordan opdager jeg, at AI hallucinerer?

De mest effektive metoder er: kræv kildehenvisninger i alle svar, krydsvalider vigtige fakta, og implementér automatisk faktatjek mod kendte datakilder. Vær særligt opmærksom på svar med specifikke tal, navne eller datoer.

Er nogle AI-modeller bedre end andre til at undgå hallucinationer?

Ja. Nyere modeller hallucinerer generelt mindre end ældre. Modeller med RAG hallucinerer markant mindre end modeller uden. Men ingen model er helt fri for hallucinationer.