OpenAI har lanceret Workspace Agents i ChatGPT som afløser for Custom GPTs. Det er AI-agenter, der...
En AI Policy Engine opfanger og evaluerer AI-agenters handlinger mod foruddefinerede regler i realtid. Forstå hvorfor det er afgørende for compliance og sikkerhed.


En AI Policy Engine sidder mellem AI-agenten og de handlinger, agenten ønsker at udføre. Hver gang agenten foreslår en handling, serialiseres den som en struktureret forespørgsel og sendes til politikmotoren. Motoren evaluerer forespørgslen mod det aktive regelsæt og returnerer enten en godkendelse, en afvisning eller en eskalering til et menneske.
Reglerne kan udtrykkes i forskellige formater. Microsofts Agent Governance Toolkit, der blev lanceret i april 2026, understøtter YAML-regler, OPA Rego og Cedar som politiksprog. Det giver virksomheder fleksibilitet til at vælge det format, der passer bedst til deres eksisterende governance-setup.
Evalueringen sker deterministisk og med sub-millisekund latens. Det betyder, at politikmotoren ikke selv bruger AI til at vurdere handlingerne. Den anvender faste, forudsigelige regler, hvilket gør den audit-egnet og reproducerbar. Det er en afgørende forskel fra AI Governance som overordnet disciplin, hvor politikmotoren er det specifikke tekniske lag, der håndhæver reglerne.
I praksis kan en politikmotor f.eks. blokere en agent fra at sende eksterne e-mails uden godkendelse, forhindre adgang til følsomme datasæt uden korrekt rolle, eller begrænse det beløb, en agent kan disponere over i en enkelt transaktion.
For virksomheder, der allerede bruger agentic AI, er en politikmotor det lag, der gør det muligt at skalere antallet af agenter uden at miste kontrollen. Uden runtime-håndhævelse af regler stiger risikoen eksponentielt med hver ny agent, der får adgang til systemer og data.
I finanssektoren kan en politikmotor sikre, at en AI-agent, der håndterer kundeforespørgsler, aldrig tilgår kontooplysninger ud over det, kundens samtykke dækker. I sundhedssektoren kan den forhindre, at en agent videregiver patientdata til et eksternt system. I e-handel kan den sætte lofter over rabatter eller refunderinger, som en agent kan tilbyde autonomt.
EU AI Act kræver fra august 2026, at virksomheder med højrisiko AI-systemer kan dokumentere, hvilke regler systemet opererer under, logge alle beslutninger og muliggøre menneskelig indgriben. En AI Policy Engine er det tekniske svar på disse krav: den håndhæver reglerne, logger evalueringerne og eskalerer til mennesker, når reglerne foreskriver det.
Markedet for AI-governance-platforme forventes at overstige 1 milliard dollar inden 2030. For virksomheder, der ønsker at bevæge sig fra pilot til produktion med autonome AI-systemer, er en politikmotor ikke en luksus, men en forudsætning.
En AI Policy Engine er ikke det samme som guardrails i en LLM. Guardrails begrænser typisk, hvad en model kan generere som output (f.eks. at undgå upassende sprog). En politikmotor opererer på handlingsniveau: den evaluerer ikke modellens ord, men dens forsøg på at gøre noget i den virkelige verden, som at tilgå data, kalde et API eller ændre en database.
Den er heller ikke en erstatning for AI Compliance som organisatorisk funktion. Compliance dækker politikker, processer, dokumentation og kultur. Politikmotoren er det tekniske håndhævelsesværktøj, der automatiserer den del af compliance, som kan udtrykkes som regler.
Endelig bør en politikmotor ikke forveksles med en AI-model, der selv vurderer risici. Styrken ved en politikmotor er netop, at den er deterministisk: samme input giver altid samme output. Det gør den reviderbar og forudsigelig, i modsætning til en probabilistisk AI-vurdering.
AI Governance: Den overordnede ramme for politikker, processer og kontroller, der styrer brugen af AI i en organisation. Politikmotoren er det tekniske håndhævelsesværktøj inden for denne ramme.
Guardrails: Begrænsninger bygget ind i AI-systemer for at forhindre uønsket adfærd. En politikmotor fungerer som guardrails på handlingsniveau.
Agentic AI: AI-systemer der handler autonomt. En politikmotor er særligt relevant for agentic AI, fordi autonome agenter kræver runtime-kontrol.
EU AI Act: Den europæiske lovgivning for AI. Politikmotorer hjælper med at opfylde lovens krav om sporbarhed, kontrol og menneskelig indgriben.
AI Compliance: Den organisatoriske funktion der sikrer overholdelse af AI-regulering. Politikmotoren automatiserer dele af compliance-håndhævelsen.
Human Oversight: Kravet om menneskelig kontrol over AI-systemer. En politikmotor understøtter dette ved at eskalere kritiske beslutninger.
OWASP Agentic AI Top 10: Sikkerhedsrisici for autonome AI-agenter. En politikmotor adresserer flere af disse risici med deterministisk håndhævelse.
OpenAI har lanceret Workspace Agents i ChatGPT som afløser for Custom GPTs. Det er AI-agenter, der...
Den 20. april 2026 ændrede Anthropic stille og roligt hvad et AI-output kan være. Live Artifacts i...
Anthropic lancerede den 23. april 2026 hukommelse til Claude Managed Agents. Det fjerner et af de...