Defense-in-Depth (AI-sikkerhed i lag)
Defense-in-Depth er en sikkerhedsstrategi, der beskytter AI-systemer gennem flere uafhængige lag af kontroller. Princippet er enkelt: hvis ét lag svigter, fanger det næste truslen. I stedet for at satse alt på én firewall eller ét filter bygger man et forsvar, hvor input-screening, adgangskontrol, model-guardrails, output-validering og logging arbejder sammen.
For virksomheder, der anvender LLM'er og AI-agenter i produktion, er Defense-in-Depth ikke et valg, men en nødvendighed. Et enkelt sikkerhedslag kan omgås af prompt injection, data poisoning eller simple fejlkonfigurationer. Flere lag reducerer risikoen for, at en enkelt sårbarhed kompromitterer hele systemet.
Begrebet stammer fra militærstrategi, hvor forsvarere placerede barrierer i dybden for at sinke en fjende. I AI-konteksten handler det om at designe systemer, hvor hvert trin i dataflowet har sit eget forsvar.
Hvordan virker Defense-in-Depth i AI-systemer?
Defense-in-Depth i AI-systemer fungerer ved at placere sikkerhedskontroller på hvert trin i dataflowet, fra brugerens forespørgsel til modellens output. Hvert lag har en specifik opgave og fungerer uafhængigt af de øvrige, så et brud i ét lag ikke automatisk kompromitterer hele kæden.
Det første lag er input-screening. Automatiserede klassifikatorer analyserer brugerens prompt, før den når modellen, og blokerer forespørgsler, der forsøger prompt injection eller søger adgang til følsomme data. Dette lag fanger de mest åbenlyse angrebsforsøg.
Det næste lag er adgangskontrol og kontekststyring. Her bestemmes, hvilke data og værktøjer modellen har adgang til under en given session. Zero-trust-principper sikrer, at modellen kun kan tilgå det minimum af ressourcer, den behøver for at løse opgaven.
Tredje lag er guardrails på selve modellen. Disse regler styrer, hvordan modellen ræsonnerer og hvilke typer svar den må generere. Det kan være content-filtre, der forhindrer generering af skadeligt indhold, eller forretningsregler, der begrænser modellens handlingsrum.
Det fjerde lag er output-validering. Før et svar sendes til brugeren, evalueres det af et separat system. Outputtet kontrolleres for faktuelle fejl, uautoriseret dataeksponering og overholdelse af virksomhedens politikker. Endelig sikrer logging og observability, at alle interaktioner registreres, så anomalier kan opdages og undersøges efterfølgende.
Consile hjælper virksomheder med at designe og implementere lagdelt AI-sikkerhed tilpasset jeres risikoprofil og compliance-krav. Kontakt os for en uforpligtende vurdering af jeres AI-sikkerhed.
Defense-in-Depth i erhvervslivet
Virksomheder, der ruller AI-løsninger ud i produktion, har brug for Defense-in-Depth på tværs af flere dimensioner. Det gælder ikke kun den tekniske sikkerhed, men også governance-processer og organisatorisk parathed.
I kundevendte AI-systemer som chatbots og Conversational AI beskytter lagdelt sikkerhed mod, at modellen lækker fortrolige oplysninger eller genererer svar, der kan skade virksomhedens omdømme. Input-filtre fanger manipulation, guardrails holder modellen inden for rammerne, og output-validering sikrer, at svaret er korrekt, før kunden ser det.
I interne AI-systemer, hvor medarbejdere bruger AI til analyse, rapportering eller beslutningsstøtte, forhindrer Defense-in-Depth uautoriseret adgang til følsomme data. En medarbejder i marketingafdelingen bør ikke kunne bede en AI-agent om at trække HR-data, selv hvis modellen teknisk set har adgang. Rollebaseret adgangskontrol og kontekstsegmentering løser dette.
For virksomheder underlagt EU AI Act er lagdelt sikkerhed desuden et compliance-krav. Forordningen kræver, at højrisiko-AI-systemer har passende sikkerhedsforanstaltninger, logging og menneskelig overvågning. En Defense-in-Depth-strategi dokumenterer, at virksomheden har taget systematisk stilling til risici på hvert niveau.
Praktisk set starter de fleste virksomheder med at kortlægge deres AI-anvendelser, identificere Shadow AI og derefter implementere lag af kontroller baseret på risikoniveauet for hver enkelt use case. Kritiske systemer får flere lag, mens interne eksperimenter kan nøjes med grundlæggende kontroller.
Hvad Defense-in-Depth ikke er
Defense-in-Depth er ikke det samme som at stable sikkerhedsværktøjer oven på hinanden uden koordination. Hvis hvert lag opererer i sin egen silo uden at dele information med de øvrige, opstår blinde vinkler, som angribere kan udnytte. Lagene skal tale sammen, dele telemetri og koordinere reaktioner for at skabe reel beskyttelse.
Det er heller ikke en garanti mod alle angreb. Forskning har vist, at målrettede angreb som STACK-metoden kan omgå flere forsvarslag sekventielt med op til 71 % succesrate i visse scenarier. Defense-in-Depth reducerer risikoen markant, men erstatter ikke behovet for løbende test, red teaming og opdatering af kontrollerne.
Endelig er Defense-in-Depth ikke kun et teknisk anliggende. Uden klare governance-processer, ejerskab og en organisation, der forstår sin rolle i sikkerhedskæden, ender selv veldesignede tekniske lag med at blive omgået af menneskelige fejl eller manglende vedligeholdelse.
Relaterede termer
Guardrails er de tekniske og proceduremæssige kontroller, der holder AI-systemer inden for acceptable grænser. Lær hvordan guardrails beskytter din virksomhed.
Prompt injection er den mest udbredte sårbarhed i AI-systemer. Forstå hvordan angreb fungerer, hvorfor de er farlige for virksomheder, og hvordan du beskytter dig.
AI Governance er den organisatoriske ramme for ansvarlig AI-brug. Forstå hvad det indebærer og hvorfor det er afgørende for din virksomhed.
Shadow AI er uautoriseret brug af AI-værktøjer i virksomheden. Forstå risikoen og hvordan du håndterer det.
EU AI Act er den første omfattende AI-lovgivning i verden. Forstå kravene, risikokategorierne og hvad det betyder for danske virksomheder.
Human-in-the-Loop (HITL) sikrer menneskelig kontrol over AI-systemer. Forstå hvordan HITL fungerer, hvornår det er nødvendigt, og hvad det kræver i praksis.
AI Compliance dækker de processer og systemer, virksomheder skal have på plads for at overholde AI-regulering som EU AI Act. Forstå kravene og kom i gang.
Ofte stillede spørgsmål om Defense-in-Depth
Hvor mange sikkerhedslag har vi brug for?+
Det afhænger af risikoniveauet. Et kundevendt AI-system, der håndterer persondata, kræver typisk 4-5 lag: input-screening, adgangskontrol, model-guardrails, output-validering og logging. Et internt eksperimentelt system kan starte med 2-3 lag. Consile hjælper med at vurdere det rette niveau for jeres specifikke use cases.
Er Defense-in-Depth et krav under EU AI Act?+
EU AI Act nævner ikke Defense-in-Depth ved navn, men forordningen kræver passende tekniske og organisatoriske foranstaltninger, logging, overvågning og risikostyring for højrisiko-AI-systemer. En lagdelt sikkerhedsstrategi er i praksis den mest effektive måde at opfylde disse krav på.
Kan Defense-in-Depth forhindre alle AI-angreb?+
Nej. Ingen sikkerhedsstrategi er 100 % effektiv. Defense-in-Depth reducerer risikoen markant ved at tvinge angribere til at overvinde flere uafhængige barrierer. Det vigtigste er at kombinere de tekniske lag med løbende test, overvågning og opdatering.