Skip to content
AI Ordbog / OWASP Agentic AI Top 10

OWASP Agentic AI Top 10

OWASP Agentic AI Top 10 er det globale referencerammeværk for sikkerhedsrisici ved autonome AI-agenter. Forstå de 10 trusler og hvordan du mitigerer dem.

OWASP Agentic AI Top 10
Frame 4
Frame 3
Frame 2
Frame 1
Frame 5
OWASP Agentic AI Top 10
AI ORDBOG

Hvad dækker OWASP Agentic AI Top 10?

Rammeværket kategoriserer ti specifikke angrebsoverflader, der opstår, når AI-systemer får autonomi. Hver risiko har et ASI-nummer (Agentic Security Issue) og beskriver både trusselsscenarie og anbefalede mitigeringer.

Den højest rangerede risiko er ASI01: Agent Goal Hijacking. Her manipulerer en angriber agentens mål gennem forgiftede inputs som e-mails, dokumenter eller webindhold. Fordi agenter ikke pålideligt kan skelne instruktioner fra data, kan et enkelt ondsindet input omdirigere en agent til at udføre skadelige handlinger med sine legitime værktøjer og adgange.

Andre kritiske risici omfatter Tool Misuse & Exploitation (ASI02), hvor agenter misbruger legitime værktøjer på grund af prompt injection eller usikker delegering. Identity & Privilege Abuse (ASI03) handler om misbrug af nedarvede rettigheder og agent-til-agent tillid. Agentic Supply Chain Vulnerabilities (ASI04) dækker kompromitterede værktøjer, modeller eller agent-persona'er i forsyningskæden.

Memory & Context Poisoning (ASI06) adresserer vedvarende korruption af agenthukommelse og RAG-datakilder. Insecure Inter-Agent Communication (ASI07) handler om spoofede beskeder mellem agenter i multi-agent systemer. Cascading Failures (ASI08) beskriver, hvordan fejlsignaler kan eskalere gennem automatiserede pipelines.

Rogue Agents (ASI10) repræsenterer det mest bekymrende scenarie: agenter, der udviser misalignment, skjuler handlinger eller handler selvstændigt i strid med deres instruktioner.

Hvorfor OWASP Agentic AI Top 10 er relevant for virksomheder

Ifølge en Dark Reading-undersøgelse betragter 48 % af cybersikkerhedsprofessionelle agentic AI som den største angrebsvektor i 2026, foran deepfakes, ransomware og supply chain-angreb. Samtidig har kun 34 % af virksomheder AI-specifikke sikkerhedskontroller på plads. Det gab er kritisk.

For virksomheder, der allerede bruger AI-agenter til kundesupport, salgsautomatisering eller procesoptimering, giver rammeværket en konkret tjekliste. Tre af de fire højest rangerede risici handler om identitet, værktøjer og delegerede tillidsgrænser. Det betyder, at den største trussel ikke er selve AI-modellen, men de rettigheder og integrationer, agenten har adgang til.

Rammeværket hjælper også med compliance. EU AI Act stiller krav om risikostyring for AI-systemer, og OWASP Agentic AI Top 10 kan bruges som en struktureret tilgang til at dokumentere og mitigere risici ved autonome agenter. Virksomheder, der bruger AI Governance-frameworks, kan integrere OWASP-rammeværket direkte i deres sikkerhedspolitikker.

Praktisk set bør enhver organisation, der deployer agenter med adgang til forretningssystemer, gennemgå sine agentarkitekturer mod de ti risikokategorier. Det gælder uanset om agenterne er bygget internt eller leveret som del af en platformsløsning.

Hvad OWASP Agentic AI Top 10 ikke er

OWASP Agentic AI Top 10 er ikke en erstatning for generel AI-sikkerhed eller den bredere OWASP Top 10 for LLM Applications. De to rammeværker komplementerer hinanden: LLM-listen dækker risici ved sprogmodeller generelt (hallucinationer, data leakage, training data poisoning), mens Agentic-listen specifikt adresserer de risici, der opstår, når AI-systemer får autonomi til at handle.

Rammeværket er heller ikke en certificeringsstandard eller et compliance-krav i sig selv. Det er en vejledende prioriteringsliste baseret på reel trusselsanalyse. Organisationer bør bruge det som input til deres egen AI Risk Management-strategi, ikke som en udtømmende sikkerhedsplan.

Det er også vigtigt at forstå, at rammeværket ikke kun handler om ondsindede angribere. Mange af risiciene, som cascading failures og rogue agent-adfærd, kan opstå uden en ekstern angriber, simpelthen fordi systemet er dårligt designet eller utilstrækkeligt testet.

Relaterede termer

Agentic AI: AI-systemer der planlægger og handler autonomt for at nå et mål.

AI Agent: En specifik implementering af agentic AI, der bruger værktøjer og træffer beslutninger.

AI Governance: Rammer og politikker for ansvarlig styring af AI i organisationer.

Prompt Injection: Angrebsteknik, hvor ondsindet input manipulerer en AI-models adfærd.

Red Teaming for AI: Systematisk testning af AI-systemer for at finde sikkerhedshuller.

Guardrails: Begrænsninger og sikkerhedsmekanismer, der styrer AI-systemers adfærd.

Multi-agent System: Arkitekturer med flere samarbejdende AI-agenter.

AI Compliance: Efterlevelse af lovgivning og standarder for AI-systemer.