Vercel offentliggjorde i april 2026 en sikkerhedshændelse der startede et helt andet sted end deres...
Deepfake-mærkning er pligten til at oplyse, at indhold er AI-genereret eller manipuleret. Forstå kravene i EU AI Act og hvad det betyder for din virksomhed.


Deepfake-mærkning fungerer i to lag. Det synlige lag er det, brugeren ser direkte: et ikon, en tekst eller et vandmærke på billedet eller videoen, der oplyser, at indholdet er AI-genereret. EU arbejder på et fælles ikon, men indtil det er klar, anbefaler den europæiske Code of Practice et midlertidigt to-bogstavs-mærke som "AI" eller "KI".
Det usynlige lag er metadata indlejret i selve filen. Her spiller standarden C2PA (Content Credentials) en central rolle. C2PA fungerer som en slags indholdsdeklaration for digitalt materiale: den registrerer, hvem der skabte indholdet, hvilke værktøjer der blev brugt, og om det er blevet ændret undervejs. Disse oplysninger overlever kopiering og deling, så mærkningens integritet bevares.
Et tredje element er digital watermarking, hvor et usynligt mønster indlejres direkte i pixels eller lydbølger. Selv hvis metadata fjernes, kan watermarken stadig identificeres af detektionssoftware. Kombinationen af synlig mærkning, metadata og watermarking udgør det, der i branchen kaldes "robust provenance" - en flerlagsbeskyttelse mod manipulation.
For virksomheder betyder det i praksis, at mærkningsløsninger skal integreres i de workflows, hvor AI-indhold produceres. Det kan være i marketingafdelingens content-pipeline, i HR's videokommunikation eller i produktteamets brug af generativ AI til prototyper og præsentationer.
Deepfake-mærkning berører langt flere virksomheder, end de fleste forestiller sig. Enhver organisation, der bruger AI til at generere eller redigere visuelt eller auditivt indhold, er potentielt omfattet af de nye krav. Det gælder marketingafdelinger, der bruger AI til billedgenerering, HR-teams, der anvender AI-avatarer i onboarding-videoer, og kundeservice-afdelinger med AI-genererede stemmer.
Finanssektoren har en særlig interesse i deepfake-mærkning og -detektion. CEO-fraud, hvor en svindler bruger en AI-genereret stemme eller video til at udgive sig for en direktør, er en voksende trussel. Flere danske og internationale banker har implementeret deepfake-detektionsværktøjer som led i deres sikkerhedsinfrastruktur.
Medie- og kommunikationsbranchen står over for et dobbelt krav: de skal både mærke eget AI-genereret indhold og verificere eksternt indhold for deepfakes. Platforme, nyhedsmedier og PR-bureauer investerer i provenance-teknologi for at beskytte deres troværdighed.
Juridisk set er forberedelsen afgørende. EU AI Act artikel 50 træder i kraft i august 2026, og virksomheder bør allerede nu kortlægge, hvor i organisationen AI-genereret indhold opstår, og etablere processer for mærkning. En AI Governance-ramme, der inkluderer deepfake-mærkning, er den mest effektive tilgang.
I Danmark har den brede politiske aftale om deepfakes desuden skabt grundlag for lovgivning, der gør det strafbart at dele manipuleret materiale uden samtykke. Det understreger, at mærkning ikke kun handler om compliance, men også om at beskytte individers rettigheder.
Deepfake-mærkning er ikke det samme som deepfake-detektion. Mærkning er en proaktiv handling: den, der skaber eller distribuerer AI-indhold, tager ansvar for at oplyse om det. Detektion er en reaktiv proces, hvor tredjeparter analyserer indhold for at afsløre manipulation. Begge er nødvendige, men de løser forskellige problemer. Mærkning handler om gennemsigtighed, detektion om sikkerhed.
Mærkning er heller ikke en garanti mod misbrug. En ondsindet aktør vil typisk ikke frivilligt mærke en deepfake. Derfor er mærkning mest effektiv som tillidsmekanisme mellem legitime afsendere og modtagere, ikke som værn mod bevidst svindel. Til det formål er AI Watermarking og detektionsværktøjer nødvendige supplementer.
Endelig skal deepfake-mærkning ikke forveksles med AI-indholdsmærkning i bred forstand. AI-indholdsmærkning dækker al AI-genereret tekst, kode og data, mens deepfake-mærkning specifikt vedrører syntetisk medie, der kan forveksles med virkelighed: billeder, video og lyd af personer, steder eller begivenheder.
C2PA (Content Credentials): Den tekniske standard bag indholdsdeklarationer, der dokumenterer oprindelse og redigeringshistorik for digitalt indhold.
AI Watermarking: Usynlige digitale signaturer indlejret i AI-genereret indhold, som kan detekteres maskinelt selv efter redigering.
AI-indholdsmærkning (AI Content Labeling): Den bredere disciplin, der dækker mærkning af alt AI-genereret indhold, inklusive tekst og kode.
Synthetic Media: Samlebetegnelsen for AI-genererede billeder, video, lyd og tekst, som deepfakes er en delmængde af.
EU AI Act: Den europæiske regulering, der fra august 2026 stiller bindende krav om mærkning af deepfakes under artikel 50.
AI Governance: Den organisatoriske ramme for styring, kontrol og ansvarlig brug af AI, herunder politikker for mærkning af AI-indhold.
Ansvarlig AI (Responsible AI): Principperne og praksisserne bag etisk og gennemsigtig AI-anvendelse, hvor deepfake-mærkning er et konkret element.
Vercel offentliggjorde i april 2026 en sikkerhedshændelse der startede et helt andet sted end deres...
Et kinesisk forskerteam har bygget et system der designer nye AI-arkitekturer, renser træningsdata...
Den 31. marts 2026 publicerede nordkoreanske hackere to kompromitterede versioner af axios, en af...