Skip to content
AI Ordbog / AI Runtime Security (AI-runtime-sikkerhed)

AI Runtime Security (AI-runtime-sikkerhed)

AI Runtime Security beskytter AI-systemer mens de kører. Forstå hvorfor sikkerhed under drift er afgørende for AI-agenter, LLM-applikationer og enterprise AI.

AI Runtime Security (AI-runtime-sikkerhed)
Frame 4
Frame 3
Frame 2
Frame 1
Frame 5
AI Runtime Security (AI-runtime-sikkerhed)
AI ORDBOG

Hvordan virker AI Runtime Security?

AI Runtime Security opererer som et sikkerhedslag, der sidder mellem AI-modellen og omverdenen. Hver gang en AI-agent modtager et input, genererer et output eller forsøger at udføre en handling, evaluerer runtime-sikkerhedslaget om aktiviteten er tilladt, mistænkelig eller direkte skadelig.

Det adskiller sig fundamentalt fra traditionel applikationssikkerhed. Klassiske sikkerhedskontroller beskytter deterministisk kode og strukturerede input som formularfelter eller API-kald. AI Runtime Security skal håndtere non-deterministiske systemer og naturligt sprog, hvor det samme input kan producere forskellige output hver gang, og hvor modellens adfærd kan manipuleres gennem prompt injection eller indlejret kontekst.

I praksis fungerer runtime security i tre lag. Input-guardrails inspicerer og filtrerer alt, der sendes til modellen. Output-guardrails kontrollerer, hvad modellen returnerer, før det når slutbrugeren. Og handlings-guardrails evaluerer både hensigten og destinationen for hver handling, en AI-agent forsøger at udføre, og beslutter i realtid om handlingen skal tillades eller blokeres.

For AI-agenter er dette særligt kritisk. En agents drift er en kontinuerlig cyklus af ræsonnering, beslutning, eksekvering og tilpasning. Hvert trin udvider angrebsfladen. Runtime security overvåger hele denne cyklus og griber ind, hvis agenten afviger fra sine tilladte handlingsmønstre.

AI Runtime Security i erhvervslivet

For virksomheder, der deployer AI i produktion, er runtime security blevet en forretningskritisk disciplin. Ifølge IBMs Cost of a Data Breach Report reducerede organisationer med AI-specifikke sikkerhedskontroller omkostningerne ved databrud med gennemsnitligt 2,1 millioner dollars sammenlignet med dem, der udelukkende brugte traditionelle kontroller.

Et centralt anvendelsesområde er beskyttelse af kundevendte AI-systemer. Når en conversational AI håndterer kundehenvendelser, skal runtime security sikre, at modellen ikke lækker fortrolige data, genererer misinformation eller lader sig manipulere til uautoriserede handlinger. Det kræver realtidsovervågning af hver eneste interaktion.

Et andet voksende område er governance af interne AI-agenter. Efterhånden som virksomheder deployer agenter, der kan tilgå CRM-systemer, databaser og interne værktøjer, definerer sikkerhedsteams centrale politikker, der distribueres direkte til runtime-laget. Det sikrer, at agenternes adfærd matcher organisationens krav til sikkerhed, compliance og datahåndtering.

Shadow AI er en tredje driver. Mange medarbejdere bruger AI-værktøjer uden IT-afdelingens vidende. Runtime security gør det muligt at opdage og kontrollere uautoriseret AI-brug gennem dynamisk trafikovervågning og policy-baseret styring, uden at blokere legitim brug.

I en regulatorisk kontekst understøtter runtime security også kravene i EU AI Act, som stiller krav om løbende overvågning og logning af højrisiko AI-systemer i drift.

Hvad AI Runtime Security ikke er

AI Runtime Security er ikke en erstatning for sikkerhed i design- og udviklingsfasen. Det erstatter ikke behovet for sikker arkitektur, red teaming, modeltræning med sikkerhedsforanstaltninger eller grundlæggende guardrails i systemdesignet. Runtime security er det sidste forsvarslag, ikke det eneste.

Det er heller ikke det samme som traditionel netværkssikkerhed eller endpoint-beskyttelse. Disse discipliner beskytter infrastrukturen, som AI kører på, men adresserer ikke de unikke risici ved AI-modellers adfærd. En firewall kan ikke opdage, at en LLM er blevet manipuleret gennem indirekte prompt injection i et dokument, den behandler.

Endelig er runtime security ikke en statisk konfiguration. Det er et dynamisk system, der skal tilpasses løbende, efterhånden som trusselsbilledet udvikler sig, nye angrebsvektorer opdages, og AI-systemernes kapaciteter udvides.

Relaterede termer

Guardrails: Sikkerhedsmekanismer der begrænser AI-modellers output og handlinger inden for acceptable rammer.

Prompt Injection: Angrebsteknik, hvor ondsindede instruktioner indlejres i input for at manipulere AI-modellens adfærd.

AI Governance: Den overordnede ramme for politikker, processer og kontroller til ansvarlig AI-brug.

Red Teaming for AI: Systematisk afprøvning af AI-systemer gennem simulerede angreb for at identificere sårbarheder.

Observability i AI: Evnen til at overvåge, logge og forstå AI-systemers adfærd i realtid.

Defense-in-Depth: Sikkerhedsstrategi med flere lag af beskyttelse, hvor runtime security udgør et kritisk lag.

Shadow AI: Uautoriseret brug af AI-værktøjer i organisationen, som runtime security kan opdage og håndtere.