Hvad er EU AI Act?
EU AI Act er den første omfattende lovgivning om kunstig intelligens i verden. Forordningen regulerer udvikling, udbud og brug af AI-systemer i EU og gælder for alle virksomheder, der udvikler eller anvender AI på det europæiske marked, uanset om virksomheden er baseret i EU eller ej.
Formålet er at sikre, at AI-systemer er sikre, gennemsigtige og respekterer grundlæggende rettigheder. Lovgivningen trådte i kraft i august 2024, med en trinvis implementering frem til 2027.
De fire risikokategorier
EU AI Act klassificerer AI-systemer i fire risikokategorier:
Uacceptabel risiko: AI-systemer, der er forbudt. Det omfatter social scoring, manipulation af sårbare grupper, biometrisk masseovervågning i realtid (med undtagelser for retshåndhævelse) og AI, der udnytter adfærdsmæssige sårbarheder.
Højrisiko: AI-systemer, der bruges i kritiske områder som ansættelse, kreditvurdering, uddannelse, retshåndhævelse og sundhed. Disse systemer skal opfylde strenge krav til risikovurdering, dokumentation, datakvalitet og human oversight.
Begrænset risiko: AI-systemer med gennemsigtighedsforpligtelser. Chatbots og GenAI-systemer skal for eksempel oplyse brugeren om, at de interagerer med AI.
Minimal risiko: AI-systemer uden specifikke regulatoriske krav. Størstedelen af AI-applikationer falder i denne kategori.
Consile hjælper danske virksomheder med at navigere EU AI Act. Kontakt os for en vurdering af, hvad lovgivningen betyder for jeres organisation.
Hvad kræver EU AI Act af virksomheder?
For de fleste danske virksomheder er de vigtigste krav:
Klassificering: I skal vurdere, om jeres AI-systemer falder i en af risikokategorierne. Mange standardanvendelser (chatbots, content generation, interne analyseværktøjer) har begrænset eller minimal risiko.
Dokumentation: Højrisiko-systemer kræver teknisk dokumentation, risikovurderinger og et risk management system.
Gennemsigtighed: AI-genereret indhold skal markeres. Brugere skal informeres, når de interagerer med AI.
Human oversight: Højrisiko-systemer skal have mekanismer for menneskelig overvågning og indgriben.
Data governance: Krav til kvaliteten og repræsentativiteten af de data, AI-systemer er trænet på.
AI literacy: Organisationer, der bruger AI, skal sikre, at medarbejderne har tilstrækkelig forståelse af AI-teknologien.
Tidslinjen for EU AI Act
August 2024: Forordningen trådte i kraft. Februar 2025: Forbud mod AI-systemer med uacceptabel risiko. August 2025: Krav til general-purpose AI-modeller (GPAI) træder i kraft. August 2026: De fleste krav til højrisiko AI-systemer træder i kraft. August 2027: Fuld implementering for alle krav.
Relaterede termer
AI Governance er den organisatoriske ramme for ansvarlig AI-brug. Forstå hvad det indebærer og hvorfor det er afgørende for din virksomhed.
Ansvarlig AI handler om at udvikle og bruge AI-systemer, der er retfærdige, gennemsigtige og sikre. Forstå principperne og praksis.
Ofte stillede spørgsmål om EU AI Act
Gælder EU AI Act for min virksomhed?+
Hvis jeres virksomhed udvikler, udbyder eller anvender AI-systemer i EU, er I omfattet. Det gælder også virksomheder uden for EU, hvis jeres AI-system bruges af personer i EU.
Hvad sker der, hvis vi ikke overholder EU AI Act?+
Sanktionerne er betydelige: op til 35 millioner euro eller 7% af global årlig omsætning for de alvorligste overtrædelser. For overtrædelse af krav til højrisiko-systemer er det op til 15 millioner euro eller 3% af omsætningen.
Skal vi stoppe med at bruge ChatGPT?+
Nej. General-purpose AI-modeller som ChatGPT og Claude er fortsat tilladte. I skal dog sikre gennemsigtighed (informere om AI-brug) og etablere interne retningslinjer for brug, især vedrørende fortrolige data.
Hvordan kommer vi i gang med compliance?+
Start med at kortlægge jeres AI-systemer og klassificere dem i risikokategorierne. Etablér en AI governance-ramme med klare ansvar, politikker og dokumentation. Consile tilbyder AI Governance-rådgivning, der hjælper jer med hele processen.