Blog
Kontakt os

AI System Categorization

AI System Categorization er processen med at klassificere en virksomheds AI-systemer i risikokategorier defineret af regulering, primært EU AI Act. Formålet er at afgøre, hvilke krav der gælder for hvert system, fra dokumentation og overvågning til et direkte forbud.

For danske virksomheder, der anvender eller udvikler AI, er kategorisering ikke længere valgfrit. EU AI Act trådte i kraft i august 2024, og de fulde forpligtelser for højrisiko-systemer gælder fra august 2026. At kende risikokategorien for hvert AI-system er det første skridt mod compliance og ansvarlig brug.

Kategoriseringen handler ikke kun om jura. Den skaber overblik over, hvor AI skaber værdi, og hvor den potentielt udgør en risiko for kunder, medarbejdere eller forretningen selv.

Læsetid 3 minOpdateret marts 2026

Hvordan virker AI System Categorization?

EU AI Act opererer med fire risikoniveauer, og ethvert AI-system, der anvendes eller udbydes i EU, skal placeres i én af dem. Niveauerne er: uacceptabel risiko (forbudt), høj risiko, begrænset risiko og minimal risiko.

Uacceptabel risiko dækker systemer, der strider mod grundlæggende EU-værdier. Det omfatter social scoring af borgere, manipulation via subliminale teknikker og realtids biometrisk overvågning i offentlige rum. Disse systemer er simpelthen forbudt.

Højrisiko AI-systemer er den mest regulerede kategori af tilladte systemer. Det gælder AI i kritisk infrastruktur, ansættelsesprocesser, kreditvurdering, uddannelse og retshåndhævelse. Her kræves risikostyring, teknisk dokumentation, datagovernance, menneskelig overvågning og løbende overvågning efter lancering.

Begrænset risiko omfatter systemer med transparensforpligtelser. Chatbots skal oplyse brugeren om, at de interagerer med AI. Deepfakes skal markeres tydeligt. Emotionsgenkendelse kræver samtykke.

Minimal risiko dækker hovedparten af AI-systemer på markedet i dag: spamfiltre, anbefalingsalgoritmer og AI-drevne søgeværktøjer. Der er ingen lovmæssige krav til disse systemer, men det er god praksis at følge frivillige adfærdskodekser.

Consile hjælper danske virksomheder med at kortlægge, kategorisere og dokumentere deres AI-systemer i overensstemmelse med EU AI Act. Kontakt os for en uforpligtende vurdering af jeres AI-portefølje.

AI System Categorization i erhvervslivet

For virksomheder starter kategorisering med et overblik. Mange organisationer har langt flere AI-systemer i drift, end de er bevidste om. Det inkluderer indlejret AI i CRM-platforme, chatbots på hjemmesiden, scoring-modeller i salgsafdelinger og automatiserede beslutningsprocesser i HR.

Det første skridt er en AI-inventar: en systematisk kortlægning af alle AI-systemer i virksomheden, deres formål, datakilder og berørte personer. Hvert system vurderes derefter mod EU AI Acts kategorier, primært ved at analysere use casen og den potentielle påvirkning på menneskers rettigheder og sikkerhed.

Kategoriseringen har direkte konsekvenser for ressourcer og tidslinjer. Et højrisiko-system kræver en AI Governance-struktur med risikostyringssystem, teknisk dokumentation, conformity assessment og løbende monitorering. Et system med minimal risiko kræver ingen af delene, men det er stadig klogt at dokumentere vurderingen.

Danske virksomheder i finanssektoren, sundhedssektoren og den offentlige sektor vil typisk have flere højrisiko-systemer end gennemsnittet. Men selv en standard B2B-virksomhed kan have højrisiko-elementer, hvis AI bruges til medarbejdervurdering eller kreditbeslutninger.

Den praktiske gevinst ved kategorisering rækker ud over compliance. Processen tvinger ledelsen til at tage stilling til, hvilke AI-systemer der er forretningskritiske, hvor risikoen er størst, og hvor indsatsen bør prioriteres. Det er i sig selv en værdifuld strategisk øvelse.

Hvad AI System Categorization ikke er

Kategorisering er ikke en engangsøvelse. AI-systemer ændrer sig over tid, nye use cases opstår, og modeller opdateres. En kategorisering, der blev lavet ved lancering, kan være forældet seks måneder senere. Virksomheder bør integrere kategoriseringen i deres løbende ansvarlig AI-processer.

Kategorisering er heller ikke det samme som risikovurdering. Kategoriseringen placerer et system i en regulatorisk risikoklasse. Risikovurderingen er den dybere analyse af specifikke risici, mitigerende foranstaltninger og residualrisiko. Begge dele er nødvendige, men kategorisering kommer først.

Endelig er kategorisering ikke kun et juridisk ansvar. Det er et ledelsesansvar. Bestyrelse og direktion bør kende virksomhedens AI-portefølje og de tilhørende risikokategorier, præcis som de kender andre compliance-forpligtelser.

Ofte stillede spørgsmål om AI System Categorization

Hvordan finder jeg ud af, om vores AI-system er højrisiko?

Start med at vurdere use casen. Bruges AI til beslutninger, der påvirker personers rettigheder, sikkerhed eller adgang til services? EU AI Act Annex III lister specifikke anvendelsesområder, der automatisk er højrisiko: kreditvurdering, ansættelse, uddannelsesadgang, retshåndhævelse og kritisk infrastruktur. Consile kan hjælpe med at gennemgå jeres AI-portefølje og klassificere hvert system.

Hvad sker der, hvis vi kategoriserer forkert?

Forkert kategorisering kan betyde, at I enten overinvesterer i compliance for et lavrisiko-system eller underinvesterer i et højrisiko-system. Det sidste er alvorligt: manglende compliance med højrisiko-kravene kan medføre bøder op til 3% af global omsætning og reputationsskade.

Skal vi kategorisere AI, der er indbygget i tredjepartssoftware?

Ja, som deployer (bruger) af AI-systemer har I også forpligtelser under EU AI Act, selv når AI-komponenten er leveret af en tredjepart. I skal vide, hvilken risikokategori systemet falder i, og sikre, at leverandøren lever op til de tilhørende krav.