Vercel offentliggjorde i april 2026 en sikkerhedshændelse der startede et helt andet sted end deres...
AI Transparency Obligation er de lovpligtige krav om gennemsigtighed i EU AI Act. Forstå hvad din virksomhed skal gøre inden august 2026.


Gennemsigtighedspligten i EU AI Act opererer på tre niveauer, som tilsammen dækker hele spektret fra simple chatbots til avancerede deepfake-generatorer.
Det første niveau handler om oplysningspligt ved interaktion. Når en person kommunikerer med et AI-system, skal vedkommende informeres om, at der er tale om kunstig intelligens og ikke et menneske. Det gælder Conversational AI, AI-drevne kundeserviceløsninger og alle andre systemer, hvor en bruger kan forveksle AI med en person. Undtagelsen er situationer, hvor det er åbenlyst, at der er tale om AI, eller hvor systemet anvendes til retshåndhævelse.
Det andet niveau vedrører mærkning af syntetisk indhold. AI-systemer, der genererer tekst, billeder, lyd eller video, skal markere deres output i et maskinlæsbart format, så det kan identificeres som AI-genereret. EU-kommissionen anbefaler en flerlagsstrategi med digitalt signeret metadata, imperceptibel vandmærkning og valgfri fingerprinting som fallback.
Det tredje niveau gælder deepfakes specifikt. Virksomheder og personer, der anvender AI til at generere eller manipulere indhold, der ligner virkelige mennesker, steder eller begivenheder, skal tydeligt oplyse, at indholdet er kunstigt fremstillet. Dette krav rammer bredt, fra marketingafdelinger til mediehuse.
Derudover stiller EU AI Act skærpede gennemsigtighedskrav til højrisiko-AI-systemer. Disse skal designes, så deres funktion er tilstrækkeligt gennemsigtig til, at brugerne kan fortolke systemets output korrekt og anvende det hensigtsmæssigt.
Den praktiske betydning af gennemsigtighedspligten varierer efter, hvordan virksomheden anvender AI. For mange danske virksomheder handler det om tre konkrete områder.
Kundevendte AI-systemer er det mest oplagte. Virksomheder, der bruger chatbots, automatiserede e-mail-svar eller AI-genererede produktanbefalinger, skal sikre, at kunderne ved, de kommunikerer med AI. Det kræver ikke nødvendigvis en pop-up ved hvert svar, men en klar og tilgængelig oplysning om AI-systemets tilstedeværelse. Mange virksomheder anvender allerede Conversational AI i deres kundeservice, og her er tilpasningen relativt enkel.
AI-genereret indhold til marketing og kommunikation er et andet centralt område. Virksomheder, der bruger Generativ AI til at producere tekst, billeder eller video til nyhedsbreve, sociale medier eller hjemmesider, skal fremover sikre, at dette indhold er mærket korrekt. Det gælder også indhold, der er delvist AI-genereret eller AI-redigeret.
Interne AI-systemer til beslutningsstøtte falder under de skærpede regler, hvis de klassificeres som højrisiko. Det omfatter AI-systemer til HR-screening, kreditvurdering, forsikringsberegning og lignende. Her skal gennemsigtigheden sikre, at de mennesker, der bruger systemets output, forstår dets begrænsninger og kan udøve meningsfuldt tilsyn.
EU-kommissionen har udviklet en Code of Practice, der fungerer som den de facto-compliance-standard. Den tredje og endelige version forventes i juni 2026, og virksomheder bør allerede nu kortlægge deres AI-systemer og vurdere, hvilke gennemsigtighedskrav der gælder for hvert enkelt system.
En udbredt misforståelse er, at gennemsigtighedspligten kræver, at virksomheder offentliggør deres kildekode eller forretningshemmeligheder. Det gør den ikke. Kravet handler om at oplyse brugere og berørte personer om AI-systemets tilstedeværelse og funktion, ikke om at afsløre de tekniske detaljer bag modellen. Fokus er på forståelig information om, hvad systemet gør, hvilke data det bruger, og hvilken logik det følger.
Gennemsigtighedspligten er heller ikke det samme som Explainable AI (XAI). XAI handler om at gøre en models beslutningsproces teknisk forklarbar. Gennemsigtighedspligten handler om at informere brugere og sikre AI Governance på organisatorisk niveau. De to supplerer hinanden, men de er forskellige discipliner med forskellige krav.
Det er også vigtigt at forstå, at gennemsigtighed alene ikke garanterer ansvarlig AI. En virksomhed kan være fuldt gennemsigtig om et AI-system, der stadig indeholder bias eller træffer fejlagtige beslutninger. Gennemsigtighed er et nødvendigt fundament, men det erstatter ikke AI Compliance, risikovurdering og løbende overvågning.
EU AI Act: Den europæiske forordning om kunstig intelligens, der fastsætter regler for udvikling og anvendelse af AI-systemer, herunder gennemsigtighedspligten.
AI Compliance: Processen med at sikre, at en virksomheds AI-systemer overholder gældende lovgivning, herunder gennemsigtighedskravene.
AI Governance: Den organisatoriske ramme for styring, tilsyn og kontrol med AI-systemer, som gennemsigtighedspligten understøtter.
Explainable AI (XAI): Teknikker til at gøre AI-modellers beslutninger forklarbare, som supplerer men ikke erstatter gennemsigtighedspligten.
Højrisiko AI-systemer: AI-systemer med skærpede krav til gennemsigtighed, dokumentation og menneskeligt tilsyn under EU AI Act.
AI Watermarking: Teknisk metode til at mærke AI-genereret indhold, som understøtter opfyldelsen af gennemsigtighedspligten.
Ansvarlig AI: Den bredere tilgang til etisk og ansvarlig AI-udvikling, hvor gennemsigtighed er en af flere grundpiller.
Vercel offentliggjorde i april 2026 en sikkerhedshændelse der startede et helt andet sted end deres...
Et kinesisk forskerteam har bygget et system der designer nye AI-arkitekturer, renser træningsdata...
Den 31. marts 2026 publicerede nordkoreanske hackere to kompromitterede versioner af axios, en af...