Skip to content
AI Ordbog / Explainable AI (XAI)

Explainable AI (XAI)

Explainable AI (XAI) gør AI-beslutninger gennemsigtige og forståelige. Lær hvad XAI er, hvorfor det er afgørende for compliance, og hvordan det skaber tillid.

Explainable AI (XAI)
Frame 4
Frame 3
Frame 2
Frame 1
Frame 5
Explainable AI (XAI)
AI ORDBOG

Hvordan virker Explainable AI?

XAI dækker et spektrum af teknikker, der kan inddeles i to overordnede kategorier. Den første er modeller, der er forklarbare i sig selv, som beslutningtræer eller lineære modeller, hvor logikken bag hvert output kan aflæses direkte. Den anden er post-hoc-metoder, der forklarer beslutninger fra komplekse modeller som dybe neurale netværk efter de er truffet.

To af de mest udbredte post-hoc-metoder er LIME og SHAP. LIME (Local Interpretable Model-Agnostic Explanations) skaber en forenklet lokal model omkring en specifik beslutning for at vise, hvilke inputfaktorer der påvirkede resultatet mest. SHAP (SHapley Additive ExPlanations) beregner hver enkelt features bidrag til en given forudsigelse baseret på spilteori.

Der skelnes også mellem global og lokal forklarbarhed. Global forklarbarhed afdækker, hvilke mønstre og regler modellen generelt følger. Lokal forklarbarhed forklarer, hvorfor modellen traf en specifik beslutning i et konkret tilfælde. Begge niveauer er nødvendige for at opbygge reel tillid til AI-systemer.

I praksis integreres XAI typisk som et lag oven på eksisterende LLM- eller Machine Learning-modeller. Det kræver ikke nødvendigvis, at man skifter model, men at man tilføjer værktøjer, der kan fortolke og kommunikere modellens beslutningsgrundlag.

Explainable AI i erhvervslivet

Inden for finanssektoren er XAI allerede en nødvendighed. Når en AI-model afviser en kreditansøgning eller flager en transaktion som mistænkelig, kræver både regulering og god praksis, at beslutningen kan forklares. Banker og forsikringsselskaber bruger XAI til at dokumentere, hvilke datapunkter der drev en risikovurdering, og dermed sikre, at beslutningen ikke er baseret på diskriminerende mønstre.

I sundhedssektoren understøtter XAI kliniske beslutningsstøttesystemer. Når AI foreslår en diagnose eller behandling, giver forklarbare metoder lægen mulighed for at vurdere, om anbefalingen hviler på relevante symptomer og historik. Det skaber tillid og reducerer risikoen for hallucinationer i kritiske sammenhænge.

Marketing- og salgsafdelinger bruger XAI til at forstå, hvorfor en lead-scoring-model rangerer bestemte leads højt. Det giver sælgere konkret indsigt i, hvilke signaler der udløste scoren, og gør det muligt at tilpasse outreach-strategien. Tilsvarende kan XAI afsløre, hvilke faktorer der driver churn-forudsigelser, så virksomheden kan handle proaktivt.

Med EU AI Act, der stiller krav om gennemsigtighed for højrisiko-AI-systemer fra 2026, bliver XAI en compliance-nødvendighed for enhver europæisk virksomhed, der anvender AI til beslutninger med væsentlig indvirkning på mennesker. Bøder for manglende overholdelse kan nå op til 35 millioner euro.

Hvad Explainable AI ikke er

XAI er ikke det samme som at gøre AI simpel. En forklarbar model kan stadig være ekstremt avanceret. Forklarbarheden handler om at kommunikere beslutningsgrundlaget, ikke om at reducere modellens kompleksitet. En post-hoc-forklaring af en dyb neural netværksmodel er en tilnærmelse, ikke en fuldstændig gengivelse af modellens interne logik.

XAI garanterer heller ikke automatisk tillid eller fairness. En model kan forklare sin beslutning korrekt og stadig være biased, hvis de underliggende data er det. Forklarbarheden gør det lettere at opdage bias, men den fjerner den ikke. Det kræver ansvarlig AI-praksis, AI governance og løbende overvågning at sikre retfærdige resultater.

Det er også vigtigt at forstå, at XAI ikke er gratis i form af compute-ressourcer. Forklaringsalgoritmer kræver ofte, at modellen køres mange gange for at isolere effekten af individuelle features. For realtidssystemer med strenge latency-krav er det en afvejning mellem dybden af forklaringer og systemets ydeevne.

Relaterede termer

AI Governance: Rammerne for styring, kontrol og ansvarlighed omkring AI-systemer i en organisation.

EU AI Act: EU's regulering af kunstig intelligens, der stiller krav om gennemsigtighed for højrisiko-systemer.

Ansvarlig AI (Responsible AI): Principper og praksis for at udvikle og anvende AI etisk og retfærdigt.

AI Hallucinationer: Når AI-modeller genererer faktuelt forkerte eller opdigtede svar med overbevisende sikkerhed.

Algoritmisk Bias: Systematiske skævheder i AI-modellers output forårsaget af ubalancerede eller fejlagtige træningsdata.

Human-in-the-Loop (HITL): Designmønster hvor mennesker indgår som kontrol- og beslutningsled i AI-processer.

Deep Learning: Undergruppe af machine learning baseret på dybe neurale netværk, ofte forbundet med black-box-problematikken.