Skip to content
AI Ordbog / Defense-in-Depth (AI-sikkerhed i lag)

Defense-in-Depth (AI-sikkerhed i lag)

Defense-in-Depth er en sikkerhedsstrategi med flere lag, der beskytter AI-systemer mod angreb. Forstå principperne og hvordan din virksomhed kan anvende dem.

Defense-in-Depth (AI-sikkerhed i lag)
Frame 4
Frame 3
Frame 2
Frame 1
Frame 5
Defense-in-Depth (AI-sikkerhed i lag)
AI ORDBOG

Hvordan virker Defense-in-Depth i AI-systemer?

Defense-in-Depth i AI-systemer fungerer ved at placere sikkerhedskontroller på hvert trin i dataflowet, fra brugerens forespørgsel til modellens output. Hvert lag har en specifik opgave og fungerer uafhængigt af de øvrige, så et brud i ét lag ikke automatisk kompromitterer hele kæden.

Det første lag er input-screening. Automatiserede klassifikatorer analyserer brugerens prompt, før den når modellen, og blokerer forespørgsler, der forsøger prompt injection eller søger adgang til følsomme data. Dette lag fanger de mest åbenlyse angrebsforsøg.

Det næste lag er adgangskontrol og kontekststyring. Her bestemmes, hvilke data og værktøjer modellen har adgang til under en given session. Zero-trust-principper sikrer, at modellen kun kan tilgå det minimum af ressourcer, den behøver for at løse opgaven.

Tredje lag er guardrails på selve modellen. Disse regler styrer, hvordan modellen ræsonnerer og hvilke typer svar den må generere. Det kan være content-filtre, der forhindrer generering af skadeligt indhold, eller forretningsregler, der begrænser modellens handlingsrum.

Det fjerde lag er output-validering. Før et svar sendes til brugeren, evalueres det af et separat system. Outputtet kontrolleres for faktuelle fejl, uautoriseret dataeksponering og overholdelse af virksomhedens politikker. Endelig sikrer logging og observability, at alle interaktioner registreres, så anomalier kan opdages og undersøges efterfølgende.

Defense-in-Depth i erhvervslivet

Virksomheder, der ruller AI-løsninger ud i produktion, har brug for Defense-in-Depth på tværs af flere dimensioner. Det gælder ikke kun den tekniske sikkerhed, men også governance-processer og organisatorisk parathed.

I kundevendte AI-systemer som chatbots og Conversational AI beskytter lagdelt sikkerhed mod, at modellen lækker fortrolige oplysninger eller genererer svar, der kan skade virksomhedens omdømme. Input-filtre fanger manipulation, guardrails holder modellen inden for rammerne, og output-validering sikrer, at svaret er korrekt, før kunden ser det.

I interne AI-systemer, hvor medarbejdere bruger AI til analyse, rapportering eller beslutningsstøtte, forhindrer Defense-in-Depth uautoriseret adgang til følsomme data. En medarbejder i marketingafdelingen bør ikke kunne bede en AI-agent om at trække HR-data, selv hvis modellen teknisk set har adgang. Rollebaseret adgangskontrol og kontekstsegmentering løser dette.

For virksomheder underlagt EU AI Act er lagdelt sikkerhed desuden et compliance-krav. Forordningen kræver, at højrisiko-AI-systemer har passende sikkerhedsforanstaltninger, logging og menneskelig overvågning. En Defense-in-Depth-strategi dokumenterer, at virksomheden har taget systematisk stilling til risici på hvert niveau.

Praktisk set starter de fleste virksomheder med at kortlægge deres AI-anvendelser, identificere Shadow AI og derefter implementere lag af kontroller baseret på risikoniveauet for hver enkelt use case. Kritiske systemer får flere lag, mens interne eksperimenter kan nøjes med grundlæggende kontroller.

Hvad Defense-in-Depth ikke er

Defense-in-Depth er ikke det samme som at stable sikkerhedsværktøjer oven på hinanden uden koordination. Hvis hvert lag opererer i sin egen silo uden at dele information med de øvrige, opstår blinde vinkler, som angribere kan udnytte. Lagene skal tale sammen, dele telemetri og koordinere reaktioner for at skabe reel beskyttelse.

Det er heller ikke en garanti mod alle angreb. Forskning har vist, at målrettede angreb som STACK-metoden kan omgå flere forsvarslag sekventielt med op til 71 % succesrate i visse scenarier. Defense-in-Depth reducerer risikoen markant, men erstatter ikke behovet for løbende test, red teaming og opdatering af kontrollerne.

Endelig er Defense-in-Depth ikke kun et teknisk anliggende. Uden klare governance-processer, ejerskab og en organisation, der forstår sin rolle i sikkerhedskæden, ender selv veldesignede tekniske lag med at blive omgået af menneskelige fejl eller manglende vedligeholdelse.

Relaterede termer

Guardrails: Regler og begrænsninger, der styrer, hvad en AI-model må og ikke må. Et centralt lag i enhver Defense-in-Depth-strategi.

Prompt Injection: En angrebsteknik, hvor en bruger manipulerer AI-modellens opførsel via input. Input-screening er det primære forsvar.

AI Governance: Rammerne for, hvordan en organisation styrer og overvåger sin brug af AI. Defense-in-Depth er den tekniske implementering af governance-politikker.

Shadow AI: Uautoriseret brug af AI-værktøjer i organisationen. Defense-in-Depth kræver først synlighed over alle AI-systemer.

EU AI Act: EU-forordning, der stiller krav til sikkerhed og overvågning af AI-systemer, særligt højrisikosystemer.

Human-in-the-Loop: Princippet om menneskelig involvering i kritiske AI-beslutninger. Et vigtigt lag i Defense-in-Depth for højrisikosystemer.

Ansvarlig AI: Den bredere tilgang til etisk og sikker AI-udvikling, hvor Defense-in-Depth er et af de konkrete implementeringsværktøjer.