70 procent af danske virksomheder bruger nu AI i deres daglige drift. Det viser en ny analyse fra...
AI Compliance dækker de processer og systemer, virksomheder skal have på plads for at overholde AI-regulering som EU AI Act. Forstå kravene og kom i gang.


AI Compliance omfatter alle de aktiviteter, en organisation udfører for at sikre, at dens AI-systemer lever op til regulatoriske krav. I praksis betyder det tre ting: at vide hvilke regler der gælder, at dokumentere hvordan de overholdes, og at kunne bevise det over for en tilsynsmyndighed.
Det centrale regelsæt i Europa er EU AI Act, der klassificerer AI-systemer i fire risikoniveauer: uacceptabel risiko (forbudt), høj risiko (strenge krav), begrænset risiko (gennemsigtighedskrav) og minimal risiko (ingen særlige krav). Forbuddet mod uacceptable AI-praksisser trådte i kraft 2. februar 2025, mens kravene til højrisikosystemer får fuld virkning i august 2026.
Ud over EU AI Act skal virksomheder forholde sig til GDPR i forbindelse med persondata i AI-systemer, sektorspecifik regulering inden for finans, sundhed og forsikring, samt internationale standarder som ISO/IEC 42001, der definerer krav til et AI-ledelsessystem.
Compliance kræver også et AI-register: en oversigt over alle AI-systemer i organisationen, hvem der ejer dem, hvilken risikokategori de falder i, og hvilke kontroller der er implementeret. Uden dette register er det umuligt at dokumentere efterlevelse systematisk.
For virksomheder er AI Compliance ikke bare en juridisk øvelse. Det er en konkurrenceparameter. Organisationer med styr på compliance kan deploye AI-løsninger hurtigere, fordi de allerede har rammerne på plads. De undgår bøder, der under EU AI Act kan nå op på 35 millioner euro eller 7% af den globale omsætning for de alvorligste overtrædelser.
I praksis starter compliance-arbejdet med en gap-analyse: Hvilke AI-systemer har vi? Hvilke regler gælder for dem? Hvor er hullerne? Herfra bygges et compliance-program med klare roller, processer for risikovurdering og mekanismer til løbende overvågning. Det er tæt forbundet med AI Governance, men hvor governance handler om den overordnede styring, handler compliance om den konkrete efterlevelse af specifikke regler.
Danske virksomheder har en særlig udfordring, fordi mange opererer internationalt og derfor skal navigere både EU AI Act, nationale implementeringer og eventuelt amerikanske delstatsregler som Colorados AI Act. Et robust compliance-framework tager højde for denne kompleksitet fra starten.
En vigtig del af compliance er Ansvarlig AI i praksis: bias-test, gennemsigtighed over for brugere og dokumentation af, hvordan beslutninger træffes. Det er krav, der både opfylder regulering og opbygger tillid hos kunder og samarbejdspartnere.
AI Compliance er ikke det samme som AI Governance, selvom begreberne ofte bruges i flæng. Governance er den overordnede ramme for, hvordan en organisation styrer sin brug af AI: politikker, principper, organisering og beslutningsprocesser. Compliance er den specifikke del, der handler om at overholde eksterne regler og kunne dokumentere det. Man kan have governance uden compliance, men ikke effektiv compliance uden governance.
AI Compliance er heller ikke en engangsøvelse. Det er ikke nok at lave en vurdering én gang og lægge den i skuffen. AI-systemer ændrer sig over tid, regulering udvikler sig, og nye use cases opstår. Compliance kræver løbende overvågning, regelmæssige audits og opdatering af dokumentation. Det er en kontinuerlig proces, ikke et projekt med en slutdato.
Endelig er AI Compliance ikke kun IT-afdelingens ansvar. Det kræver samarbejde mellem juridisk, teknisk, forretning og ledelse. De virksomheder, der lykkes bedst, forankrer compliance i en tværfaglig struktur, ofte i form af et AI Readiness-program eller et dedikeret AI-kompetencecenter.
AI Governance: Den overordnede ramme for styring af AI i en organisation, herunder politikker, principper og beslutningsstrukturer.
EU AI Act: EU's bindende regulering af kunstig intelligens, der klassificerer AI-systemer efter risiko og stiller krav til dokumentation, gennemsigtighed og menneskeligt tilsyn.
Ansvarlig AI (Responsible AI): Tilgangen til at udvikle og anvende AI på en etisk, fair og gennemsigtig måde.
AI Literacy: Kompetencekravet om, at alle medarbejdere, der arbejder med AI, har tilstrækkelig forståelse af teknologien og dens implikationer.
AI Governance: Styringsrammen for AI-brug i en organisation.
Human Oversight: Kravet om menneskeligt tilsyn med AI-systemer, særligt i højrisikokategorier.
AI Risk Management: Systematisk identifikation, vurdering og håndtering af risici forbundet med AI-systemer.
AI Audit Trail: Dokumentation og logning af AI-systemers beslutninger og handlinger til brug ved revision og tilsyn.