AI Transparency Obligation (AI-gennemsigtighedspligt)
AI Transparency Obligation, på dansk AI-gennemsigtighedspligt, dækker de lovpligtige krav i EU AI Act om at oplyse brugere, når de interagerer med et AI-system, og om at mærke AI-genereret indhold, så det kan identificeres som kunstigt fremstillet. Kravene er defineret primært i AI Acts Artikel 50 og træder i kraft den 2. august 2026.
For danske virksomheder er gennemsigtighedspligten særlig relevant, fordi Danmark er det EU-land, hvor flest virksomheder anvender AI. 42 procent af danske virksomheder bruger mindst én AI-teknologi, langt over EU-gennemsnittet på omkring 20 procent. Det betyder, at en uforholdsmæssigt stor del af dansk erhvervsliv skal forholde sig til disse krav.
Overtrædelse kan koste op til 35 millioner euro eller 7 procent af global omsætning. Kravene er ikke valgfrie anbefalinger, men juridisk bindende forpligtelser med konkrete konsekvenser.
Hvad kræver gennemsigtighedspligten?
Gennemsigtighedspligten i EU AI Act opererer på tre niveauer, som tilsammen dækker hele spektret fra simple chatbots til avancerede deepfake-generatorer.
Det første niveau handler om oplysningspligt ved interaktion. Når en person kommunikerer med et AI-system, skal vedkommende informeres om, at der er tale om kunstig intelligens og ikke et menneske. Det gælder Conversational AI, AI-drevne kundeserviceløsninger og alle andre systemer, hvor en bruger kan forveksle AI med en person. Undtagelsen er situationer, hvor det er åbenlyst, at der er tale om AI, eller hvor systemet anvendes til retshåndhævelse.
Det andet niveau vedrører mærkning af syntetisk indhold. AI-systemer, der genererer tekst, billeder, lyd eller video, skal markere deres output i et maskinlæsbart format, så det kan identificeres som AI-genereret. EU-kommissionen anbefaler en flerlagsstrategi med digitalt signeret metadata, imperceptibel vandmærkning og valgfri fingerprinting som fallback.
Det tredje niveau gælder deepfakes specifikt. Virksomheder og personer, der anvender AI til at generere eller manipulere indhold, der ligner virkelige mennesker, steder eller begivenheder, skal tydeligt oplyse, at indholdet er kunstigt fremstillet. Dette krav rammer bredt, fra marketingafdelinger til mediehuse.
Derudover stiller EU AI Act skærpede gennemsigtighedskrav til højrisiko-AI-systemer. Disse skal designes, så deres funktion er tilstrækkeligt gennemsigtig til, at brugerne kan fortolke systemets output korrekt og anvende det hensigtsmæssigt.
Consile hjælper danske virksomheder med at forstå og implementere gennemsigtighedskravene i EU AI Act. Kontakt os for en uforpligtende vurdering af jeres AI-compliance.
Gennemsigtighedspligten i erhvervslivet
Den praktiske betydning af gennemsigtighedspligten varierer efter, hvordan virksomheden anvender AI. For mange danske virksomheder handler det om tre konkrete områder.
Kundevendte AI-systemer er det mest oplagte. Virksomheder, der bruger chatbots, automatiserede e-mail-svar eller AI-genererede produktanbefalinger, skal sikre, at kunderne ved, de kommunikerer med AI. Det kræver ikke nødvendigvis en pop-up ved hvert svar, men en klar og tilgængelig oplysning om AI-systemets tilstedeværelse. Mange virksomheder anvender allerede Conversational AI i deres kundeservice, og her er tilpasningen relativt enkel.
AI-genereret indhold til marketing og kommunikation er et andet centralt område. Virksomheder, der bruger Generativ AI til at producere tekst, billeder eller video til nyhedsbreve, sociale medier eller hjemmesider, skal fremover sikre, at dette indhold er mærket korrekt. Det gælder også indhold, der er delvist AI-genereret eller AI-redigeret.
Interne AI-systemer til beslutningsstøtte falder under de skærpede regler, hvis de klassificeres som højrisiko. Det omfatter AI-systemer til HR-screening, kreditvurdering, forsikringsberegning og lignende. Her skal gennemsigtigheden sikre, at de mennesker, der bruger systemets output, forstår dets begrænsninger og kan udøve meningsfuldt tilsyn.
EU-kommissionen har udviklet en Code of Practice, der fungerer som den de facto-compliance-standard. Den tredje og endelige version forventes i juni 2026, og virksomheder bør allerede nu kortlægge deres AI-systemer og vurdere, hvilke gennemsigtighedskrav der gælder for hvert enkelt system.
Hvad gennemsigtighedspligten ikke er
En udbredt misforståelse er, at gennemsigtighedspligten kræver, at virksomheder offentliggør deres kildekode eller forretningshemmeligheder. Det gør den ikke. Kravet handler om at oplyse brugere og berørte personer om AI-systemets tilstedeværelse og funktion, ikke om at afsløre de tekniske detaljer bag modellen. Fokus er på forståelig information om, hvad systemet gør, hvilke data det bruger, og hvilken logik det følger.
Gennemsigtighedspligten er heller ikke det samme som Explainable AI (XAI). XAI handler om at gøre en models beslutningsproces teknisk forklarbar. Gennemsigtighedspligten handler om at informere brugere og sikre AI Governance på organisatorisk niveau. De to supplerer hinanden, men de er forskellige discipliner med forskellige krav.
Det er også vigtigt at forstå, at gennemsigtighed alene ikke garanterer ansvarlig AI. En virksomhed kan være fuldt gennemsigtig om et AI-system, der stadig indeholder bias eller træffer fejlagtige beslutninger. Gennemsigtighed er et nødvendigt fundament, men det erstatter ikke AI Compliance, risikovurdering og løbende overvågning.
Relaterede termer
EU AI Act er den første omfattende AI-lovgivning i verden. Forstå kravene, risikokategorierne og hvad det betyder for danske virksomheder.
AI Compliance dækker de processer og systemer, virksomheder skal have på plads for at overholde AI-regulering som EU AI Act. Forstå kravene og kom i gang.
AI Governance er den organisatoriske ramme for ansvarlig AI-brug. Forstå hvad det indebærer og hvorfor det er afg ørende for din virksomhed.
Explainable AI (XAI) gør AI-beslutninger gennemsigtige og forståelige. Lær hvad XAI er, hvorfor det er afgørende for compliance, og hvordan det skaber tillid.
Højrisiko AI-systemer er underlagt strenge krav i EU AI Act. Forstå klassificeringen, forpligtelserne og hvad det betyder for din virksomhed.
AI watermarking indlejrer usynlige signaler i AI-genereret indhold, så oprindelse kan verificeres. Lær teknikker, EU-krav og hvad det betyder for din virksomhed.
AI Risk Management handler om at identificere, vurdere og håndtere risici ved AI-systemer. Lær frameworks, best practices og krav fra EU AI Act.
Ofte stillede spørgsmål om AI Transparency Obligation
Hvornår træder gennemsigtighedspligten i kraft?+
Gennemsigtighedskravene i EU AI Act Artikel 50 træder i kraft den 2. august 2026. Virksomheder bør allerede nu kortlægge deres AI-systemer og forberede sig, da tilpasningen kan kræve ændringer i både teknologi og processer.
Gælder gennemsigtighedspligten også for internt brugte AI-systemer?+
Det afhænger af systemets risikoklassificering. Interne AI-systemer til HR-screening, kreditvurdering og lignende kan klassificeres som højrisiko, og her gælder skærpede gennemsigtighedskrav. For simple interne produktivitetsværktøjer gælder de generelle regler om oplysning ved AI-interaktion.
Hvad sker der, hvis min virksomhed ikke overholder kravene?+
Overtrædelse af gennemsigtighedspligten kan medføre bøder på op til 35 millioner euro eller 7 procent af virksomhedens globale årsomsætning. Consile hjælper danske virksomheder med at kortlægge deres AI-systemer og sikre compliance inden fristen.