Blog
Kontakt os

Defense-in-Depth (AI-sikkerhed i lag)

Defense-in-Depth er en sikkerhedsstrategi, der beskytter AI-systemer gennem flere uafhængige lag af kontroller. Princippet er enkelt: hvis ét lag svigter, fanger det næste truslen. I stedet for at satse alt på én firewall eller ét filter bygger man et forsvar, hvor input-screening, adgangskontrol, model-guardrails, output-validering og logging arbejder sammen.

For virksomheder, der anvender LLM'er og AI-agenter i produktion, er Defense-in-Depth ikke et valg, men en nødvendighed. Et enkelt sikkerhedslag kan omgås af prompt injection, data poisoning eller simple fejlkonfigurationer. Flere lag reducerer risikoen for, at en enkelt sårbarhed kompromitterer hele systemet.

Begrebet stammer fra militærstrategi, hvor forsvarere placerede barrierer i dybden for at sinke en fjende. I AI-konteksten handler det om at designe systemer, hvor hvert trin i dataflowet har sit eget forsvar.

Læsetid 4 minOpdateret marts 2026

Hvordan virker Defense-in-Depth i AI-systemer?

Defense-in-Depth i AI-systemer fungerer ved at placere sikkerhedskontroller på hvert trin i dataflowet, fra brugerens forespørgsel til modellens output. Hvert lag har en specifik opgave og fungerer uafhængigt af de øvrige, så et brud i ét lag ikke automatisk kompromitterer hele kæden.

Det første lag er input-screening. Automatiserede klassifikatorer analyserer brugerens prompt, før den når modellen, og blokerer forespørgsler, der forsøger prompt injection eller søger adgang til følsomme data. Dette lag fanger de mest åbenlyse angrebsforsøg.

Det næste lag er adgangskontrol og kontekststyring. Her bestemmes, hvilke data og værktøjer modellen har adgang til under en given session. Zero-trust-principper sikrer, at modellen kun kan tilgå det minimum af ressourcer, den behøver for at løse opgaven.

Tredje lag er guardrails på selve modellen. Disse regler styrer, hvordan modellen ræsonnerer og hvilke typer svar den må generere. Det kan være content-filtre, der forhindrer generering af skadeligt indhold, eller forretningsregler, der begrænser modellens handlingsrum.

Det fjerde lag er output-validering. Før et svar sendes til brugeren, evalueres det af et separat system. Outputtet kontrolleres for faktuelle fejl, uautoriseret dataeksponering og overholdelse af virksomhedens politikker. Endelig sikrer logging og observability, at alle interaktioner registreres, så anomalier kan opdages og undersøges efterfølgende.

Consile hjælper virksomheder med at designe og implementere lagdelt AI-sikkerhed tilpasset jeres risikoprofil og compliance-krav. Kontakt os for en uforpligtende vurdering af jeres AI-sikkerhed.

Defense-in-Depth i erhvervslivet

Virksomheder, der ruller AI-løsninger ud i produktion, har brug for Defense-in-Depth på tværs af flere dimensioner. Det gælder ikke kun den tekniske sikkerhed, men også governance-processer og organisatorisk parathed.

I kundevendte AI-systemer som chatbots og Conversational AI beskytter lagdelt sikkerhed mod, at modellen lækker fortrolige oplysninger eller genererer svar, der kan skade virksomhedens omdømme. Input-filtre fanger manipulation, guardrails holder modellen inden for rammerne, og output-validering sikrer, at svaret er korrekt, før kunden ser det.

I interne AI-systemer, hvor medarbejdere bruger AI til analyse, rapportering eller beslutningsstøtte, forhindrer Defense-in-Depth uautoriseret adgang til følsomme data. En medarbejder i marketingafdelingen bør ikke kunne bede en AI-agent om at trække HR-data, selv hvis modellen teknisk set har adgang. Rollebaseret adgangskontrol og kontekstsegmentering løser dette.

For virksomheder underlagt EU AI Act er lagdelt sikkerhed desuden et compliance-krav. Forordningen kræver, at højrisiko-AI-systemer har passende sikkerhedsforanstaltninger, logging og menneskelig overvågning. En Defense-in-Depth-strategi dokumenterer, at virksomheden har taget systematisk stilling til risici på hvert niveau.

Praktisk set starter de fleste virksomheder med at kortlægge deres AI-anvendelser, identificere Shadow AI og derefter implementere lag af kontroller baseret på risikoniveauet for hver enkelt use case. Kritiske systemer får flere lag, mens interne eksperimenter kan nøjes med grundlæggende kontroller.

Hvad Defense-in-Depth ikke er

Defense-in-Depth er ikke det samme som at stable sikkerhedsværktøjer oven på hinanden uden koordination. Hvis hvert lag opererer i sin egen silo uden at dele information med de øvrige, opstår blinde vinkler, som angribere kan udnytte. Lagene skal tale sammen, dele telemetri og koordinere reaktioner for at skabe reel beskyttelse.

Det er heller ikke en garanti mod alle angreb. Forskning har vist, at målrettede angreb som STACK-metoden kan omgå flere forsvarslag sekventielt med op til 71 % succesrate i visse scenarier. Defense-in-Depth reducerer risikoen markant, men erstatter ikke behovet for løbende test, red teaming og opdatering af kontrollerne.

Endelig er Defense-in-Depth ikke kun et teknisk anliggende. Uden klare governance-processer, ejerskab og en organisation, der forstår sin rolle i sikkerhedskæden, ender selv veldesignede tekniske lag med at blive omgået af menneskelige fejl eller manglende vedligeholdelse.

Ofte stillede spørgsmål om Defense-in-Depth

Hvor mange sikkerhedslag har vi brug for?

Det afhænger af risikoniveauet. Et kundevendt AI-system, der håndterer persondata, kræver typisk 4-5 lag: input-screening, adgangskontrol, model-guardrails, output-validering og logging. Et internt eksperimentelt system kan starte med 2-3 lag. Consile hjælper med at vurdere det rette niveau for jeres specifikke use cases.

Er Defense-in-Depth et krav under EU AI Act?

EU AI Act nævner ikke Defense-in-Depth ved navn, men forordningen kræver passende tekniske og organisatoriske foranstaltninger, logging, overvågning og risikostyring for højrisiko-AI-systemer. En lagdelt sikkerhedsstrategi er i praksis den mest effektive måde at opfylde disse krav på.

Kan Defense-in-Depth forhindre alle AI-angreb?

Nej. Ingen sikkerhedsstrategi er 100 % effektiv. Defense-in-Depth reducerer risikoen markant ved at tvinge angribere til at overvinde flere uafhængige barrierer. Det vigtigste er at kombinere de tekniske lag med løbende test, overvågning og opdatering.