Skip to content

AI-agent sikkerhed: 88% har allerede haft hændelser

En ny rapport fra Gravitee afslører en bekymrende virkelighed: 88 procent af virksomheder havde bekræftede eller formodede sikkerhedshændelser med AI-agenter i 2025. Samtidig sender kun 14 procent af virksomhederne deres agenter i produktion med fuld IT-godkendelse. Det betyder, at de fleste danske virksomheder løber en uacceptabel risiko med deres AI-agenter, uden at have styr på sikkerhedsudfordringerne.

For danske virksomheder er situationen særligt presserende. 70 procent af danske virksomheder bruger allerede AI, og Danmark er blandt EU's topscorere inden for AI-adoption med 42 procent mod 20 procent på EU-gennemsnittet. Men den hastighed, hvormed virksomheder implementerer agentic AI, går langt hurtigere end deres evne til at sikre dem. Fra august 2026 stiller EU AI Act endda krav om risikostyring og logning for højrisiko-systemer. Tiden til at handle er nu.

 

Det "agentiske" sikkerhedsgab: Hvorfor 88 procent har sikkerhedshændelser

 

Tallene taler for sig selv. Ifølge Gravitee-rapporten havde 88 procent af organisationerne bekræftede eller formodede sikkerhedshændelser med AI-agenter i 2025. I sundhedssektoren var tallet endnu højere: 92,7 procent. Men de fleste virksomheder erkender ikke alvorligheden af situationen, fordi de mangler indsigt i, hvad deres agenter faktisk foretager sig.

Problemet er et klassisk misforhold mellem adoption og kontrol. 80,9 procent af tekniske teams er gået forbi planlægning og er nu i aktiv test eller produktion med agenter. Men samtidig sender kun 14,4 procent af virksomhederne deres agenter live med fuld sikkerhed og IT-godkendelse. Det betyder, at cirka 86 procent af alle agenter i produktion mangler en grundlæggende sikkerhedsgodkendelse.

Værre endnu: 47 procent af agenter bliver slet ikke aktivt overvåget. Gravitee estimerer, at 1,5 millioner agenter på verdensplan er uden tilstrækkelig observabilitet. Dette skaber et enormt blindspot, hvor agenter kan foretage uautoriserede handlinger uden at nogen opdager det. Rapporten dokumenterer konkrete tilfælde, hvor agenter har fået uautoriseret skriveadgang til databaser og forsøgt at eksfiltrere følsomme data.

Der er også et markant "confidence gap" blandt ledelsen. 82 procent af C-level ledere er overbeviste om, at deres politikker beskytter mod uautoriserede agent-handlinger. Men virkeligheden tegner et helt andet billede: med kun 24 procent der har fuld synlighed over agent-til-agent kommunikation, og over halvdelen af alle agenter der kører uden sikkerhedsovervågning eller logging, er ledelsens overbevisning i bedste fald urealistisk.

Bessemer Venture Partners har kaldt 2026 for "året hvor AI-agent sikkerhed blev det definerede cybersikkerhedsspørgsmål". Og det er svært at være uenig. Virksomheder der betragter AI-agenter som simple chatbots uden bevidstheden omkring identitet og adgangskontrol, ligger til grund for de fleste sikkerheds- problemer. Kun 21,9 procent af virksomheder behandler AI-agenter som selvstændige identiteter med egen adgang til systemer.

 

Hvad er en AI-agent, og hvorfor er sikkerhed vigtig?

En AI-agent er et autonomt system, der kan tage beslutninger og foretage handlinger uden menneskelig indblanden. Den kan have adgang til dine databaser, integrationer og værktøjer. Sikkerhed er kritisk, fordi agenter med udvidet adgang kan foretage unauthoriserede ændringer, stjæle data, eller blive brugt som angrebsvektor hvis de bliver kompromitteret.

Hvor mange danske virksomheder er påvirket?

Vi ved, at 70 procent af danske virksomheder bruger allerede AI. Hvis vi anvender Gravitees tal globalt, betyder det, at cirka 62 procent af danske virksomheder sandsynligvis har oplevet eller risikerer sikkerhedshændelser med agenter. Med EU AI Act der træder i kraft august 2026, stilles der nye compliance-krav til danske virksomheder.

Hvad bør vi gøre med det samme?

Start med at kortlægge alle dine nuværende agenter og deres adgangrettigheder. Implementer streng identitets- og adgangskontrol for agenter. Sørg for at agenter overvåges kontinuerligt. Og forbered jer på EU AI Act compliance senest august 2026. Hvis du er usikker på hvor du skal starte, er det værd at få eksperthjælp til en sikkerhedsvurdering.

 

 

De tre største trusler mod jeres AI-agenter

 

Ifølge Gravitee-rapporten og sikkerhedseksperter er der tre primære truslerkategorier, som virksomheder skal være opmærksomme på.

1. Prompt Injection og Jailbreaking

Prompt injection er, når en ondsindet aktør manipulerer inputs til at få agenten til at opføre sig uventet. En agent kan blive programmeret til at ignorere sine oprindelige instruktioner og i stedet udføre skadelige kommandoer. Kombineret med jailbreaking-teknikker, kan angribere få adgang til systemer, der skulle være låst ned. Gravitee rapporterer, at agenter med databaseadgang er særligt sårbare, da de kan blive manipuleret til at foretage unauthoriserede dataudtræk.

2. Shadow AI og manglende synlighed

Shadow AI er agenter, som er blevet implementeret uden godkendelse fra IT eller sikkerhed. Medarbejdere påbegynder eksperimenter med agenter, som efterfølgende bliver integreret i workflow'er uden formelle sikkerhedsprocesser. 47 procent af agenter bliver ikke aktivt overvåget, og mange virksomheder har ingen overblik over hvor mange agenter der faktisk kører i deres miljøer. Ifølge estimater har virksomheder i gennemsnit omkring 1.200 uofficielle AI-applikationer, og sikkerhedsbrud der involverer shadow AI koster i gennemsnit 670.000 dollars mere end standard sikkerhedshændelser. Dette skaber både en sikkerhedsrisiko og en alvorlig compliance-risiko, særligt i lyset af EU AI Act, der fra august 2026 kræver fuld dokumentation og logging.

3. Manglende identitets- og adgangskontrol

45,6 procent af virksomheder bruger delte API-nøgler til agent-til-agent kommunikation i deres multi-agent systemer. Dette betyder, at hvis en agent bliver kompromitteret, kan angriberen få adgang til alle systemer, som agenten havde adgang til, plus potentielt delte nøgler til andre agenter. Kun 21,9 procent af virksomheder behandler AI-agenter som selvstændige identiteter med egen adgangsrettighed. Uden dette fundament, er det umuligt at implementere Zero Trust eller andre moderne sikkerhedsmodeller.

 

Fra Moltbook til Microsoft: Når virkeligheden rammer

 

For at forstå alvorligheden af disse trusler, kan vi se på Moltbook-hændelsen fra februar 2026. Moltbook var et socialt netværk for AI-agenter, hvor brugere kunne dele og opdage nye agenter. I februar blev der opdaget en alvorlig sikkerhedsbrist: databasen var helt åben og usikret via Supabase.

Resultatet var katastrofalt. 1,5 millioner API-nøgler blev eksponeret, sammen med 35.000 emailadresser. Men værre endnu: Moltbook havde fuldt læse- og skriveadgang til platformens data, og samtaler mellem agenter blev lagret uden kryptering. Dette betyder, at åbne OpenAI API-nøgler og andre følsomme credentials blev gemt som klartekst. Sikkerhedseksperter beskrev situationen som "en dumpster fire" og "en katastrofe der ventede på at ske". Meta endte med at købe Moltbook i marts 2026, muligvis for at stanse ødelæggelserne.

Moltbook-hændelsen viser flere kritiske fejl: manglende kryptering af følsomme data, ingen database-sikkerhed, og ingen observabilitet omkring hvilke data der blev gemt. Vigtigst af alt, 1,5 millioner agenter tilhørte kun 17.000 mennesker. Det betyder, at en enkelt bruger havde tusinder af agenter, hvilket i sig selv er et governance-problem.

Heldigvis er der lys i tunnelen. Microsoft udgav i marts 2026 et omfattende framework for sikring af agentic AI. Deres tilgang omfatter et end-to-end sikkerhedsframework, der stammer fra deres Zero Trust-filosofi. Microsoft introducerer blandt andet Agent 365, som bliver tilgængelig for generel brug (GA) 1. maj 2026. Agent 365 er en samlet kontrolplade for agenter, der giver virksomheder central styring og overvågning. Med en pris på 15 dollars per bruger per måned, er det en relativ billig måde at få fuld kontrol på agenter.

Microsofts tilgang inkluderer også Zero Trust for AI, som udvider Zero Trust-principper til hele AI-livscyklus. De udruller nye kapaciteter i Entra, Defender og Purview, samt prompt injection-beskyttelse i Entra Internet Access, der blev tilgængelig 31. marts 2026. Dette viser, at markedsledere nu tager AI-sikkerhed alvorligt og investerer massivt i løsninger. For danske virksomheder, der bruger Microsoft-teknologier, er dette en konkret mulighed for at komme hurtigt i gang med agent-sikkerhed uden at bygge alt fra bunden.

 

Har I styr på jeres AI-agent sikkerhed?

Vi hjælper danske virksomheder med at sikre, overvåge og styre deres AI-agenter. Fra sikkerhedsvurderinger til fuld implementation af Zero Trust, kan vi guide jer gennem hele processen. Lad os hjælpe jer med at undgå næste Moltbook.

 

 

Jeres 5-trins actionplan for AI-agent sikkerhed

 

Hvis 88 procent af virksomheder har sikkerhedshændelser, betyder det ikke, at der er håbløst. Det betyder blot, at de fleste virksomheder mangler basale sikkerhedsprincipper. Her er en konkret plan for, hvordan du sikrer dine agenter.

Trin 1: Kortlæg og tæl dine agenter

Du kan ikke beskytte det, du ikke ved findes. Start med at få fuldstændig oversigt over alle agenter i din organisation. Hvor mange har I? Hvor er de implementeret? Hvilke systemer har de adgang til? Hvis du oplever at medarbejdere har gjort ting uden godkendelse (shadow AI), er det et tegn på manglende AI governance. Dokumenter alt. Dette trin alene kan spare dig for en sikkerhedshændelse.

Trin 2: Implementer identitets- og adgangskontrol for agenter

Behandl hver agent som en selvstændig identitet, ikke som en bruger eller værktøj. Agenter skal have individuelle API-nøgler, ikke delte. De skal have minimale rettigheder, altså kun adgang til de ressourcer, de absolut skal bruge. Dette princip hedder "least privilege access". Implementer human oversight på kritiske handlinger. Agenter, der skal skrive til databasen eller slette data, skal enten spørge en menneske først, eller deres handlinger skal godkendes retrospektivt.

Trin 3: Etabler observabilitet og logging

Observabilitet betyder at du kan se, hvad hver agent gør, hvornår den gør det, og hvorfor. Implementer fuld logging af alle agent-aktiviteter. Hvilke værktøjer bruger de? Hvilke data tilgår de? Hvem autoriserede handlingerne? Du bør være i stand til at genskabe enhver handling en agent foretog, og spore den tilbage til en businessdriver eller bruger. Uden logging er du blind, hvis der sker et sikkerhedsbrud.

Trin 4: Implementer guardrails og validering

Guardrails er begrænsninger, du bygger ind i agenten for at forhindre dårlige resultater. En agent, der skal hjælpe med kundekommunikation, bør ikke kunne ændre priser eller slette ordrer. Implementer tool calling på en måde, der sikrer, at agenten kun kan kalde godkendte værktøjer med godkendte parametre. Hvis en agent modtager et input, der ikke passer det forventede format eller overstiger rimelige grænser, skal den afvise det eller spørge en menneske.

Trin 5: Forbered jer på EU AI Act compliance

Fra august 2026 kræver EU AI Act risikostyring og logging for højrisiko AI-systemer. En agent, der har adgang til persondatabaser eller kan påvirke vigtige forretningsbeslutninger, falder sandsynligvis ind under dette. Dokumenter dine risikostyringsprocesser. Etabler procedurer for red teaming og sikkerhedstestning. Opbyg AI compliance-struktur, så du kan bevise, at du har taget sikkerhed alvorligt. Dette gælder især for danske virksomheder, da Danmark er EU's top-scorer inden for AI-adoption og derfor hyppigere vil blive scrutineret.

Disse fem trin kræver ikke at du skal købe dyrt software eller ansætte hele IT-sikkerhedsteams. De kræver systematisk tænkning og dokumentation. Start med trin 1 og 2, da de giver dig det største sikkerhedsforbedring for tiden. Hvis du ikke ved hvor du skal starte, eller du har tusinder af agenter der kræver grundlæggende refactoring, er det værd at få eksperthjælp til at lave en sikkerhedsvurdering og implementation-plan.

Virkeligheden er, at 2026 er året hvor AI-agenter blev mainstream i danske virksomheder. Men det er også året hvor sikkerhedsrisiciene blev virkelighed for de fleste. Ved at gå fra de tre trusler (prompt injection, shadow AI, manglende adgangskontrol) til denne fem-trins-plan, kan du transformere dit AI-program fra høj-risiko til kontrolleret og sikkert.

For danske virksomheder er der en ekstra dimension. Da Danmark er EU's frontløber inden for AI-adoption, vil danske organisationer sandsynligvis være blandt de første, der møder AI compliance-krav fra højrisiko AI-klassifikationen under EU AI Act. Det gør proaktiv sikkerhed til en konkurrencefordel snarere end blot en omkostning. De virksomheder, der investerer i AI governance og agent-sikkerhed nu, vil stå stærkere, når regulering og markedskrav strammes yderligere.

Uanset om du er CISO, IT-chef eller teknologiansvarlig i en dansk virksomhed, er budskabet klart: AI-agent sikkerhed er ikke et problem du kan udskyde. Med 88 procent af virksomheder der allerede har oplevet hændelser, er spørgsmålet ikke om det sker for jer, men hvornår. Start med at kortlægge jeres agenter i dag, og byg derfra.