Skip to content
AI Ordbog / AI System Categorization

AI System Categorization

AI System Categorization handler om at klassificere AI-systemer efter risiko under EU AI Act. Forstå de fire risikoniveauer og hvad de kræver af din virksomhed.

AI System Categorization
Frame 4
Frame 3
Frame 2
Frame 1
Frame 5
AI System Categorization
AI ORDBOG

Hvordan virker AI System Categorization?

EU AI Act opererer med fire risikoniveauer, og ethvert AI-system, der anvendes eller udbydes i EU, skal placeres i én af dem. Niveauerne er: uacceptabel risiko (forbudt), høj risiko, begrænset risiko og minimal risiko.

Uacceptabel risiko dækker systemer, der strider mod grundlæggende EU-værdier. Det omfatter social scoring af borgere, manipulation via subliminale teknikker og realtids biometrisk overvågning i offentlige rum. Disse systemer er simpelthen forbudt.

Højrisiko AI-systemer er den mest regulerede kategori af tilladte systemer. Det gælder AI i kritisk infrastruktur, ansættelsesprocesser, kreditvurdering, uddannelse og retshåndhævelse. Her kræves risikostyring, teknisk dokumentation, datagovernance, menneskelig overvågning og løbende overvågning efter lancering.

Begrænset risiko omfatter systemer med transparensforpligtelser. Chatbots skal oplyse brugeren om, at de interagerer med AI. Deepfakes skal markeres tydeligt. Emotionsgenkendelse kræver samtykke.

Minimal risiko dækker hovedparten af AI-systemer på markedet i dag: spamfiltre, anbefalingsalgoritmer og AI-drevne søgeværktøjer. Der er ingen lovmæssige krav til disse systemer, men det er god praksis at følge frivillige adfærdskodekser.

AI System Categorization i erhvervslivet

For virksomheder starter kategorisering med et overblik. Mange organisationer har langt flere AI-systemer i drift, end de er bevidste om. Det inkluderer indlejret AI i CRM-platforme, chatbots på hjemmesiden, scoring-modeller i salgsafdelinger og automatiserede beslutningsprocesser i HR.

Det første skridt er en AI-inventar: en systematisk kortlægning af alle AI-systemer i virksomheden, deres formål, datakilder og berørte personer. Hvert system vurderes derefter mod EU AI Acts kategorier, primært ved at analysere use casen og den potentielle påvirkning på menneskers rettigheder og sikkerhed.

Kategoriseringen har direkte konsekvenser for ressourcer og tidslinjer. Et højrisiko-system kræver en AI Governance-struktur med risikostyringssystem, teknisk dokumentation, conformity assessment og løbende monitorering. Et system med minimal risiko kræver ingen af delene, men det er stadig klogt at dokumentere vurderingen.

Danske virksomheder i finanssektoren, sundhedssektoren og den offentlige sektor vil typisk have flere højrisiko-systemer end gennemsnittet. Men selv en standard B2B-virksomhed kan have højrisiko-elementer, hvis AI bruges til medarbejdervurdering eller kreditbeslutninger.

Den praktiske gevinst ved kategorisering rækker ud over compliance. Processen tvinger ledelsen til at tage stilling til, hvilke AI-systemer der er forretningskritiske, hvor risikoen er størst, og hvor indsatsen bør prioriteres. Det er i sig selv en værdifuld strategisk øvelse.

Hvad AI System Categorization ikke er

Kategorisering er ikke en engangsøvelse. AI-systemer ændrer sig over tid, nye use cases opstår, og modeller opdateres. En kategorisering, der blev lavet ved lancering, kan være forældet seks måneder senere. Virksomheder bør integrere kategoriseringen i deres løbende ansvarlig AI-processer.

Kategorisering er heller ikke det samme som risikovurdering. Kategoriseringen placerer et system i en regulatorisk risikoklasse. Risikovurderingen er den dybere analyse af specifikke risici, mitigerende foranstaltninger og residualrisiko. Begge dele er nødvendige, men kategorisering kommer først.

Endelig er kategorisering ikke kun et juridisk ansvar. Det er et ledelsesansvar. Bestyrelse og direktion bør kende virksomhedens AI-portefølje og de tilhørende risikokategorier, præcis som de kender andre compliance-forpligtelser.

Relaterede termer

EU AI Act: Den europæiske forordning, der definerer de fire risikokategorier for AI-systemer og fastsætter kravene for hver kategori.

Højrisiko AI-systemer: AI-systemer i den næsthøjeste risikokategori, der kræver omfattende dokumentation, overvågning og risikostyring.

AI Governance: Den overordnede styringsramme for AI i en organisation, som kategoriseringen føder direkte ind i.

AI Compliance: Den praktiske efterlevelse af regulatoriske krav, herunder de forpligtelser, der følger af kategoriseringen.

Ansvarlig AI: Det bredere begreb for etisk og ansvarlig brug af AI, som kategorisering er et konkret redskab inden for.

AI Audit Trail: Dokumentationen af AI-systemers beslutninger og handlinger, som er et krav for højrisiko-systemer.

Conformity Assessment: Den formelle vurdering af, om et højrisiko AI-system overholder EU AI Acts krav.

AI Readiness: Virksomhedens modenhed til at arbejde med AI, hvor kategorisering af eksisterende systemer er et centralt element.