Skip to content
AI Ordbog / Hallucinationer

Hallucinationer

AI-hallucinationer er, når AI genererer overbevisende men forkerte svar. Forstå hvorfor det sker og hvordan du reducerer risikoen.

Hallucinationer
Frame 4
Frame 3
Frame 2
Frame 1
Frame 5
Hallucinationer
AI ORDBOG

Hvorfor hallucinerer AI-modeller?

LLM'er er trænet til at generere sandsynlige svar, ikke sande svar. Modellen ved ikke, hvad der er faktuelt korrekt. Den producerer tekst baseret på statistiske mønstre fra træningsdata.

Hallucinationer opstår typisk i tre situationer:

Manglende viden: Når modellen bliver spurgt om noget, der ikke er dækket i dens træningsdata, opfinder den et plausibelt svar i stedet for at sige 'det ved jeg ikke'.

Modstridende information: Når træningsdata indeholder modsatrettede oplysninger, kan modellen blande dem sammen og producere et svar, der ikke stemmer.

Overdreven selvsikkerhed: LLM'er er designet til at give autoritative svar. De sjældent signalerer usikkerhed, hvilket gør det svært for brugeren at vurdere pålideligheden.

Hvordan reducerer du hallucinationer?

RAG (Retrieval-Augmented Generation): Den mest effektive metode. Ved at give modellen adgang til verificerede dokumenter som kontekst, reduceres risikoen for opdigtede svar markant.

Temperature-indstilling: En lavere temperature (tæt på 0) gør modellens svar mere deterministiske og konservative, hvilket reducerer kreative men ukorrekte svar.

Guardrails: Implementér automatiske kontroller, der validerer AI-output mod kendte fakta eller forretningsregler, inden de præsenteres for brugeren.

Source attribution: Design systemet, så modellen altid angiver sine kilder. Svar uden kilder er et rødt flag.

Human review: For kritiske use cases (juridisk, medicinsk, finansielt) bør AI-output altid gennemgås af et menneske.

Hvad hallucinationer ikke er

Hallucinationer er ikke det samme som AI, der lyver. Modellen har ingen intention om at vildlede. Den producerer simpelthen det mest sandsynlige svar baseret på sine mønstre, uanset om det tilfældigvis er korrekt.

Det er heller ikke et problem, der kan elimineres helt. Selv med RAG og guardrails kan hallucinationer forekomme. Målet er at reducere dem til et acceptabelt niveau og sikre, at brugeren ved, hvornår svaret er verificeret.

Relaterede termer

LLM (Large Language Model): Modellerne, der er tilbøjelige til hallucinationer. RAG: Den mest effektive teknik til at reducere hallucinationer. Guardrails: Sikkerhedsmekanismer, der fanger fejlagtige svar. Grounding: Forankring af svar i verificerede data. Temperature: Parameter, der påvirker kreativiteten (og dermed hallucinations-risikoen) i svar. Ansvarlig AI: Den ramme, der adresserer hallucinationer som en risiko.

Lorem ipsum dolor sit amet, consectetur adipiscing elit. Ut faucibus enim mauris, vel dignissim...