Vercel offentliggjorde i april 2026 en sikkerhedshændelse der startede et helt andet sted end deres...
Conformity assessment er den formelle vurdering af, om et højrisiko-AI-system overholder EU AI Act. Forstå processen, kravene og din virksomheds ansvar.


En conformity assessment under AI Act følger en struktureret proces, der skal dokumentere, at et højrisiko-AI-system opfylder syv grundkrav: risikostyring, datastyring, teknisk dokumentation, logning, gennemsigtighed, menneskeligt tilsyn samt nøjagtighed, robusthed og cybersikkerhed.
Der findes to hovedspor. Det første er intern kontrol, hvor udbyderen selv verificerer, at kvalitetsstyringssystemet og den tekniske dokumentation lever op til kravene. Det andet er tredjepartsvurdering, hvor et såkaldt notified body gennemgår dokumentation og processer uafhængigt. De fleste højrisiko-AI-systemer kan klares med intern kontrol, men AI-systemer til biometrisk fjernidentifikation eller følelsesregistrering kræver altid en tredjepartsvurdering.
Resultatet af processen er en EU-overensstemmelseserklæring og retten til at påsætte CE-mærkning. Udbyderen skal desuden registrere systemet i EU's AI-database, før det må tages i brug.
Hvis et AI-system efterfølgende ændres væsentligt, skal conformity assessment gennemføres på ny. Det sikrer, at systemet fortsat lever op til kravene gennem hele dets livscyklus.
For danske virksomheder, der udvikler eller deployer højrisiko-AI, er conformity assessment en konkret compliance-opgave med en fast deadline. Virksomheder inden for sundhed, HR, finans, retshåndhævelse og kritisk infrastruktur vil typisk have AI-systemer, der falder i højrisikokategorien og dermed kræver vurdering.
Processen starter med at kortlægge, hvilke AI-systemer virksomheden bruger, og om de falder ind under højrisiko-kategorien. Dernæst skal der etableres et kvalitetsstyringssystem, udarbejdes teknisk dokumentation og sikres, at kravene til AI governance er opfyldt.
Mange virksomheder undervurderer tidsforbruget. En conformity assessment kræver samarbejde mellem tekniske teams, juridiske afdelinger og ledelse. Det er ikke en ren papirøvelse, men en systematisk gennemgang af, hvordan AI-systemet er designet, trænet, testet og overvåget.
Virksomheder, der allerede har investeret i ansvarlig AI-praksis og dokumentation, vil have en betydelig fordel. De har typisk allerede store dele af den tekniske dokumentation og de governance-strukturer, som conformity assessment kræver.
Conformity assessment er ikke en engangsforeteelse. Det er en løbende forpligtelse, der genaktiveres ved væsentlige ændringer i AI-systemet. Virksomheder, der opfatter det som et engangsstempel, risikerer at falde ud af compliance.
Det er heller ikke det samme som en frivillig AI-audit eller en etisk vurdering. Conformity assessment er en lovmæssig procedure med specifikke krav defineret i EU AI Act. En intern AI-evaluering eller en ISO-certificering kan understøtte processen, men erstatter den ikke.
Endelig er conformity assessment ikke kun for AI-udviklere. Distributører, importører og i visse tilfælde deployere kan også blive ansvarlige for at sikre, at vurderingen er gennemført korrekt, særligt hvis de markedsfører AI-systemet under eget navn.
EU AI Act: Den europæiske forordning, der fastsætter reglerne for AI-systemer, herunder kravene til conformity assessment.
AI Governance: Den overordnede ramme for styring og kontrol af AI i en organisation, som understøtter conformity assessment-processen.
Højrisiko AI-systemer: AI-systemer, der er klassificeret som højrisiko under AI Act og derfor kræver conformity assessment.
AI Compliance: Det bredere begreb for overholdelse af regulatoriske krav til AI, hvor conformity assessment er et specifikt element.
Ansvarlig AI: Principper og praksis for etisk og gennemsigtig AI, som danner grundlag for mange af de krav, conformity assessment verificerer.
AI Audit Trail: Systematisk logning af AI-systemers beslutninger og handlinger, som er en del af dokumentationskravene i conformity assessment.
Vercel offentliggjorde i april 2026 en sikkerhedshændelse der startede et helt andet sted end deres...
Et kinesisk forskerteam har bygget et system der designer nye AI-arkitekturer, renser træningsdata...
Den 31. marts 2026 publicerede nordkoreanske hackere to kompromitterede versioner af axios, en af...