AI-blog | Guides & værktøjer fra førende AI-konsulenter | Consile

Desktop-agenter: Når AI styrer jeres computere

Skrevet af Martin Mensbo Christiansen | Mar 27, 2026 2:11:30 PM

Anthropic lancerede i marts 2026 en funktion, der lader deres AI-model Claude styre brugernes computere direkte. Åbne apps, navigere i browsere, udfylde regneark og udføre komplekse opgaver på tværs af programmer. Det er ikke science fiction, det er virkelighed.

Samtidig viser en ny rapport fra Gravitee, at 88% af organisationer allerede har oplevet bekræftede eller mistænkte sikkerhedshændelser med AI-agenter. Kun 14,4% af alle deployede agenter har fuld IT-godkendelse. Kombinationen af lav sikkerhedsmodenhed og en teknologi, der giver AI direkte kontrol over jeres skrivebord, skaber en perfekt storm for danske virksomheder.

 

Hvad er en desktop-agent, og hvorfor er den anderledes?

 

De fleste kender allerede AI-agenter som softwareløsninger, der kalder API'er og udfører opgaver i baggrunden. En desktop-agent er fundamentalt anderledes. Den styrer den grafiske brugerflade (GUI) direkte. Den klikker på knapper, skriver i felter, navigerer mellem apps og interagerer med jeres computer præcis som et menneske ville gøre det.

Anthropics Claude Computer Use er et af de mest markante eksempler. Via Cowork-funktionen kan en bruger sende en opgave fra sin telefon, hvorefter Claude åbner relevante programmer, eksporterer dokumenter, vedhæfter filer til mødeindkaldelser og udfører hele arbejdsgange autonomt. Andre store aktører følger tæt efter. OpenAI har lanceret Operator, Google arbejder på Project Mariner, og Alibaba har præsenteret Wukong.

Forskellen til traditionel RPA (Robotic Process Automation) er afgørende. RPA kræver detaljerede scripts for hver enkelt applikation og bryder sammen, når brugerfladen ændres. Desktop-agenter er fleksible og kan tilpasse sig nye interfaces uden omprogrammering. Til gengæld er de langt mindre forudsigelige, og det er netop dér, risikoen opstår.

Ifølge Gartner vil 30% af alle virksomheder have adopteret AI-drevet automation inden udgangen af 2026. Desktop-agenter udgør den nyeste og mest radikale form for denne automation, fordi de opererer direkte i den brugerflade, som medarbejderne bruger dagligt.

 

 

 

Sikkerhedsrisikoen er reel, og den er allerede her

 

Tallene taler deres eget tydelige sprog. Ifølge Gravitees State of AI Agent Security 2026-rapport har 88% af organisationer oplevet bekræftede eller mistænkte AI-agent-sikkerhedshændelser inden for det seneste år. Kun 14,4% af alle deployede AI-agenter har fuld sikkerhedsgodkendelse fra IT-afdelingen, og mere end halvdelen kører helt uden sikkerhedsoversigt eller logging.

Problemet med Shadow AI forstærkes markant, når agenter får adgang til hele skrivebordet. Individuelle teams deployer agenter uden IT-godkendelse, som forbinder sig til MCP-servere og eksterne API'er uden nogen form for sikkerhedsgennemgang. Når en desktop-agent kan navigere frit i CRM-systemer, e-mail-klienter og filsystemer, vokser angrebsfladen eksponentielt.

De fleste sikkerhedskontroller i dag fokuserer på modellaget, altså på den AI-model, der genererer output. Men angreb mod desktop-agenter sker i eksekveringslaget, der hvor agenten faktisk klikker, skriver og handler. Tool-invocations behandles som betroede handlinger som standard, og kun 21,9% af organisationer behandler AI-agenter som selvstændige identitetsbærende entiteter med egne rettigheder og begrænsninger.

Et konkret eksempel: En GitHub MCP-server blev kompromitteret via ondsindede issues, der injicerede instruktioner direkte i agentens kontekst. Denne type prompt injection-angreb bliver endnu farligere, når agenten har adgang til at styre en hel computer og ikke bare generere tekst. Microsoft adresserede netop denne udfordring i deres blogpost om sikker agentic AI fra 20. marts 2026.

 

Hvad betyder det konkret for danske virksomheder?

 

Danske virksomheder er langt fremme med AI-adoption. Ifølge Dansk Erhverv bruger 70% allerede AI i en eller anden form. Men AI governance-gabet er massivt: Kun 26% har formelt defineret, hvem der bærer ansvaret for AI-beslutninger. Desktop-agenter forstærker dette gab dramatisk. Hvem er ansvarlig, når en AI-agent ved en fejl sletter kritiske data, sender forkert information til en kunde, eller tilgår systemer, den ikke burde have adgang til?

EU AI Act skærper kravene yderligere. Desktop-agenter, der opererer i kritiske forretningssystemer, kan kategoriseres som højrisiko AI-systemer. Det indebærer krav om risikovurdering, human oversight, teknisk dokumentation og gennemsigtighed over for brugerne. For virksomheder, der allerede kæmper med AI compliance, tilføjer desktop-agenter endnu et lag af kompleksitet.

GDPR-perspektivet er ligeledes kritisk. Agenter, der navigerer i CRM-systemer, e-mail-klienter og delte filsystemer, har potentielt adgang til store mængder persondata. Uden klar datahåndteringspolitik og audit trails risikerer virksomheder bøder og tillidstab. Dertil kommer et helt nyt risikoområde for erhvervsansvarsforsikring, der endnu ikke har modne rammer til at vurdere AI-agentrelaterede skader.

 

 

5 trin til at forberede jeres virksomhed på desktop-agenter

 

Det første og vigtigste skridt er at kortlægge jeres eksisterende agent-brug. De fleste virksomheder aner ikke, hvor mange AI-agenter der allerede kører i organisationen. Start med en intern audit, der identificerer alle agenter, inklusiv dem der er deployet af individuelle teams uden IT-godkendelse. Shadow AI er et udbredt fænomen, og uden overblik kan I ikke beskytte jer.

Dernæst bør I etablere en agent-identitetspolitik. Behandl AI-agenter som selvstændige brugere med scopede credentials og klart definerede rettigheder. En desktop-agent, der skal generere rapporter, behøver ikke adgang til jeres HR-system. Princippet om mindst mulig adgang (least privilege) er lige så vigtigt for AI-agenter som for menneskelige brugere. Derudover bør I implementere sandboxed execution, så agenter aldrig får ukontrolleret adgang til hele systemet.

Krav om audit logging på alle agent-handlinger er ikke blot god praksis, det er en forudsætning for compliance under EU AI Act. Hver eneste handling, en desktop-agent udfører, skal kunne spores, dokumenteres og forklares. Det kræver investering i observability-infrastruktur, men det er en investering, der betaler sig ved den første alvorlige hændelse.

Endelig bør I definere klare human-in-the-loop-politikker for alle kritiske operationer. Bestem præcist, hvilke handlinger en agent må udføre autonomt, og hvilke der kræver menneskelig godkendelse. En veludformet AI operating model sikrer, at AI-transformation sker kontrolleret, skalerbart og ansvarligt. For virksomheder, der allerede har investeret i traditionel RPA, er strategien en gradvis transition, hvor AI-agenter håndterer komplekse, varierede opgaver, mens RPA fortsat varetager stabile, regulerede processer. Det handler ikke om at erstatte alt på én gang, men om at bygge en robust risikostyring, der kan følge med teknologiens hastighed.