OpenAI har lanceret Workspace Agents i ChatGPT som afløser for Custom GPTs. Det er AI-agenter, der...
Agentic Trust Framework (ATF) er en åben governance-standard, der anvender Zero Trust-principper på autonome AI-agenter. Forstå de fem kernelementer og fire modenhedsniveauer.


ATF er bygget op omkring fem kernespørgsmål, som enhver organisation skal kunne besvare for hver AI-agent, den udrulller. Det første spørgsmål handler om identitet: hvem er agenten, hvem ejer den, og hvilke kapabiliteter har den? Hver agent skal have en verificeret, auditerbar identitet, før den kan tilgå ressourcer.
Det andet spørgsmål handler om omfang: hvad må agenten gøre, og hvad må den ikke? Her defineres agentens operationelle grænser med præcise guardrails, der fastlægger, hvilke systemer agenten kan tilgå, hvilke handlinger den kan udføre, og hvilke data den må arbejde med.
Det tredje spørgsmål handler om sporbarhed: kan vi dokumentere, hvad agenten har gjort, og hvorfor? ATF kræver fuld logging af agentens beslutningskæde, herunder lineage (hvem delegerede opgaven), intent (hvad var målet), og kontekst (hvilke data lå til grund).
Det fjerde spørgsmål handler om observation: overvåger vi agentens adfærd løbende? Tillid optjenes gennem observerbare, forklarlige handlinger over tid, og anomalier skal detekteres og flagges automatisk.
Det femte spørgsmål handler om override: kan vi stoppe agenten øjeblikkeligt? ATF kræver, at human-in-the-loop-mekanismer er på plads, så en agent kan nedgraderes eller stoppes i løbet af sekunder, hvis situationen kræver det.
ATF introducerer fire modenhedsniveauer, bevidst navngivet efter menneskelige roller: Intern, Junior, Senior og Principal. En ny AI-agent starter altid som Intern med read-only-adgang. Den kan analysere data og generere indsigter, men kan ikke ændre noget i virksomhedens systemer. Først efter minimum to uger med dokumenteret pålidelighed kan agenten forfremmes til Junior.
En Junior-agent kan anbefale specifikke handlinger med begrundelse, men kræver eksplicit godkendelse fra et menneske, før handlingen udføres. Det svarer til en medarbejder, der laver udkast, som chefen skal godkende. Efter fire uger med over 95 procent godkendelsesrate kan agenten avancere til Senior.
Senior-agenter kan udføre handlinger inden for definerede rammer og orienterer mennesker om, hvad de har gjort og hvorfor. Principal-agenter opererer med fuld autonomi inden for deres domæne, men med kontinuerlig validering. Kritisk er det, at enhver alvorlig hændelse automatisk udløser en nedgradering. Autonomi er noget, der optjenes og kan tilbagekaldes.
For virksomheder, der arbejder med multi-agent-systemer, giver ATF en fælles ramme for, hvordan forskellige agenter samarbejder sikkert. Hvert agent-til-agent-kald valideres mod de samme tillidsregler, og delegation dokumenteres i en fuld audit trail.
ATF mapper direkte til eksisterende compliance-krav som ISO 27001, SOC 2 og EU AI Act. Det betyder, at virksomheder kan bygge videre på deres eksisterende sikkerhedsarkitektur i stedet for at starte forfra.
ATF er ikke et produkt eller en softwareplatform. Det er en åben specifikation, publiceret under Creative Commons-licens, som kan implementeres med eksisterende værktøjer og infrastruktur. Det kræver ikke køb af nye systemer, men en struktureret tilgang til dem, virksomheden allerede har.
ATF er heller ikke en erstatning for bredere AI Governance. Frameworket fokuserer specifikt på den operationelle sikkerhed ved autonome AI-agenter. Spørgsmål om etik, bias, datakvalitet og organisatorisk modenhed håndteres bedre af overordnede governance-rammer, som ATF supplerer.
Endelig er ATF ikke kun relevant for tekniske teams. Modenhedsmodellen med Intern-til-Principal-niveauerne er designet til at være forståelig for forretningsledere, så beslutninger om agentautonomi kan tages i samspil mellem IT-sikkerhed, forretning og compliance.
Agentic AI: AI-systemer, der kan handle autonomt for at nå et mål. ATF er governance-rammen, der gør det sikkert.
AI Governance: Den overordnede styring af AI i en organisation. ATF er en specifik governance-specifikation for agenter.
Guardrails: Regler og begrænsninger, der styrer AI-adfærd. ATF definerer, hvordan guardrails implementeres for autonome agenter.
Human-in-the-Loop (HITL): Menneskelig involvering i AI-beslutninger. ATF graduerer HITL efter agentens modenhedsniveau.
EU AI Act: Europæisk AI-regulering. ATF mapper sine krav til EU AI Acts risikokategorier.
Multi-agent System: Flere AI-agenter, der samarbejder. ATF sikrer tillid på tværs af agent-til-agent-interaktioner.
AI Agent: Den konkrete implementering af autonom AI. ATF definerer, hvordan en agent optjener tillid og autonomi.
Zero Trust for AI: Sikkerhedsprincippet om aldrig at antage tillid. ATF oversætter Zero Trust til AI-agentdomænet.
OpenAI har lanceret Workspace Agents i ChatGPT som afløser for Custom GPTs. Det er AI-agenter, der...
Den 20. april 2026 ændrede Anthropic stille og roligt hvad et AI-output kan være. Live Artifacts i...
Anthropic lancerede den 23. april 2026 hukommelse til Claude Managed Agents. Det fjerner et af de...