Hvad er H\u00f8jrisiko AI-systemer?
Højrisiko AI-systemer er den centrale kategori i EU AI Act, der bestemmer, hvilke AI-løsninger der kræver grundig dokumentation, risikovurdering og løbende overvågning for at komme på det europæiske marked. Det er ikke systemets tekniske kompleksitet, der afgør risikoniveauet, men derimod den kontekst, det bruges i, og de konsekvenser det kan have for menneskers helbred, sikkerhed og grundlæggende rettigheder.
For virksomheder, der anvender eller udvikler AI, er forståelsen af højrisiko-klassificeringen afgørende. Danmark er det EU-land, hvor flest virksomheder bruger AI (42 procent mod et EU-gennemsnit på 20 procent), og en betydelig del af disse anvendelser kan potentielt falde ind under højrisiko-kategorien. Med kravene der træder i kraft den 2. august 2026, er forberedelse nu en strategisk nødvendighed.
Hvad gør et AI-system til højrisiko?
EU AI Act definerer to veje til højrisiko-klassificering. Den første gælder AI-systemer, der indgår som sikkerhedskomponenter i produkter, der allerede er reguleret under EU-lovgivning, eksempelvis medicinsk udstyr, maskiner eller køretøjer. Her udløser AI-komponenten de samme krav om overensstemmelsesvurdering som selve produktet.
Den anden vej er Annex III, der opregner otte specifikke anvendelsesområder: biometri, kritisk infrastruktur, uddannelse, ansættelse og arbejdsforhold, adgang til essentielle tjenester (herunder kreditvurdering), retshåndhævelse, migrationskontrol og retspleje. Et AI-system, der anvendes inden for disse områder, klassificeres som højrisiko uanset den underliggende teknologi.
Det afgørende princip er kontekstbestemt risiko. Samme LLM kan være lavrisiko, når den opsummerer nyhedsartikler, men højrisiko, når den analyserer patientdata og anbefaler en diagnose. Klassificeringen følger altså anvendelsen, ikke modellen.
Der findes en undtagelse: Hvis AI-systemet udfører en snæver proceduremæssig opgave, forbedrer resultatet af en allerede gennemført menneskelig aktivitet, eller blot forbereder en vurdering uden at erstatte den menneskelige beslutning, kan det fritages fra højrisiko-kravene, selvom det falder inden for Annex III. Denne nuance kræver dog en konkret vurdering af hvert enkelt tilfælde.
Consile hjælper danske virksomheder med at kortlægge, klassificere og forberede deres AI-systemer til højrisiko-kravene i EU AI Act. Kontakt os for en uforpligtende vurdering af jeres AI-portefølje.
Højrisiko AI-systemer i erhvervslivet
For danske virksomheder er de mest relevante højrisiko-kategorier typisk ansættelse, kreditvurdering og kundeservice med beslutningskompetence. Bruger din virksomhed AI til at screene CV'er, rangordne jobansøgere eller vurdere medarbejderpræstationer, falder det med stor sandsynlighed under højrisiko. Det samme gælder AI-baseret kreditscoring, forsikringsvurdering og automatiserede afslag på finansielle ydelser.
Kravene til udbydere (providers) af højrisiko-systemer er omfattende. De skal etablere et kvalitetsstyringssystem, gennemføre en risikovurdering, der dækker hele systemets livscyklus, sikre datastyring med repræsentative og fejlfrie datasæt, dokumentere systemet teknisk og CE-mærke det inden markedsføring. Derudover skal systemet registreres i EU's database, før det tages i brug.
Brugere (deployers) har også klare forpligtelser. De skal sikre menneskelig overvågning af systemet, opbevare driftslogfiler i mindst seks måneder, informere berørte personer om brugen af AI og sørge for, at personalet, der overvåger systemet, har den nødvendige kompetence. For virksomheder, der anvender AI Governance-rammer, bliver disse krav en naturlig del af den eksisterende styringsstruktur.
Sanktionerne er markante: op til 15 millioner euro eller 3 procent af den globale omsætning for overtrædelse af højrisiko-reglerne. Det placerer AI Compliance på samme niveau som GDPR i den strategiske prioritering.
Hvad højrisiko AI ikke er
Højrisiko betyder ikke forbudt. Det er en almindelig misforståelse. Forbudte AI-systemer (uacceptabel risiko) er en separat og langt snævrere kategori, der eksempelvis omfatter social scoring og manipulation. Højrisiko-systemer er fuldt lovlige at udvikle og anvende, så længe kravene overholdes.
Højrisiko er heller ikke bestemt af modellens størrelse eller tekniske sofistikering. Et simpelt regelbaseret system, der automatisk afviser låneansøgninger, kan være højrisiko, mens en avanceret foundation model, der genererer marketingtekster, typisk ikke er det. Det er anvendelsen og konsekvenserne for mennesker, der tæller.
Endelig er open source-modeller ikke undtaget. Når en open source-model deployes i en højrisiko-kontekst, bærer den organisation, der tager modellen i brug, det fulde ansvar for at opfylde kravene. Ansvaret forsvinder ikke, fordi koden er frit tilgængelig.
Relaterede termer
EU AI Act er den første omfattende AI-lovgivning i verden. Forstå kravene, risikokategorierne og hvad det betyder for danske virksomheder.
AI Governance er den organisatoriske ramme for ansvarlig AI-brug. Forstå hvad det indebærer og hvorfor det er afgørende for din virksomhed.
AI Compliance dækker de processer og systemer, virksomheder skal have på plads for at overholde AI-regulering som EU AI Act. Forstå kravene og kom i gang.
Human oversight er kravet om, at mennesker kan overvåge og gribe ind i AI-systemer. Forstå kravene fra EU AI Act og hvad det betyder for din virksomhed.
Ofte stillede spørgsmål om Højrisiko AI-systemer
Hvordan finder jeg ud af, om vores AI-system er højrisiko?+
Start med at identificere, hvad systemet bruges til og hvilke beslutninger det påvirker. Hvis det anvendes inden for de otte Annex III-områder (biometri, kritisk infrastruktur, uddannelse, ansættelse, essentielle tjenester, retshåndhævelse, migration eller retspleje) og påvirker fysiske personer, er det sandsynligvis højrisiko. Consile tilbyder en AI Act-vurdering, der kortlægger jeres systemer mod klassificeringen.
Hvornår skal vi være klar til at overholde højrisiko-kravene?+
Kravene til højrisiko AI-systemer under Annex III træder i kraft den 2. august 2026. Det kræver typisk 6-12 måneders forberedelse at etablere kvalitetsstyring, risikovurdering og dokumentation, så virksomheder bør starte nu.
Gælder højrisiko-kravene også, hvis vi bruger en tredjepartsløsning?+
Ja. Som deployer (bruger) af et højrisiko-system har I selvstændige forpligtelser, uanset om I har udviklet systemet selv eller købt det. I skal sikre menneskelig overvågning, logføring og informere berørte personer. Ansvaret kan ikke outsources.