I marts 2026 blev kunstig intelligens for første gang den mest citerede årsag til fyringsrunder i...
AI-indholdsmærkning gør AI-genereret indhold synligt for brugerne. Forstå EU AI Act Article 50 og bliv klar til august 2026.


AI-indholdsmærkning fungerer på to komplementære niveauer: synlig mærkning for det menneskelige øje og maskinlæsbar mærkning, der kan verificeres af software.
Den synlige mærkning er den, brugeren kan se direkte. Det kan være en tekstdisclaimer, et watermark eller et logo, der angiver, at indholdet er AI-skabt. For video kan det være en vedvarende visuel indikator gennem hele afspilningen. For lyd en indledende eller afsluttende verbal disclosure.
Den maskinlæsbare mærkning sker ved, at kryptografisk signeret metadata indlejres direkte i filen. Den førende standard her er C2PA (Coalition for Content Provenance and Authenticity), som bruger såkaldte Content Credentials: en slags digital næringsdeklaration, der beskriver hvem der har skabt indholdet, med hvilke værktøjer og hvornår. Parallelt eksisterer tekniske watermarking-løsninger som Google's SynthID, der indlejrer usynlige mønstre i billeder, tekst og lyd, som kan detekteres af specialiseret software.
Udfordringen er, at mange mærkningsteknologier kan fjernes eller omgås, hvis indholdet redigeres eller konverteres. Derfor bliver mærkning typisk kombineret med AI Governance-processer, så der er menneskelig kontrol ud over den tekniske løsning.
For danske virksomheder er AI-indholdsmærkning relevant i tre konkrete situationer.
Marketing og kommunikation: Bruger I AI til at skabe produktbilleder, reklamer, videoer eller sociale medie-posts, skal I vurdere, om materialet falder ind under deepfake-definitionen eller handler om emner af offentlig interesse. En realistisk AI-genereret video af en kendt person kræver mærkning. Et stiliseret AI-illustreret banner til en produktside gør typisk ikke, men best practice peger mod proaktiv mærkning af hensyn til forbrugertillid.
Kundeservice og AI-agenter: Chatbots og Conversational AI-løsninger skal gøre det klart for brugeren, at de interagerer med en maskine, ikke et menneske. Dette er allerede et krav under Article 50 og gælder uanset risikoniveau.
Intern dokumentation og offentlig information: Rapporter, pressemeddelelser og indhold rettet mod offentlighedens oplysning på emner af samfundsinteresse skal mærkes, hvis de er AI-genereret uden reel menneskelig redaktionel kontrol. Her er Human-in-the-Loop-processer centrale: mennesker, der reviewer og tager ansvar for indholdet, kan udløse en undtagelse fra mærkningskravet.
Den forretningsmæssige værdi ligger ikke kun i compliance. Virksomheder, der er transparente om deres brug af AI, bygger tillid i et marked, hvor forbrugerne i stigende grad er skeptiske over for manipuleret indhold.
AI-indholdsmærkning er ikke det samme som en vurdering af sandhedsværdi. Et AI-mærket billede er ikke nødvendigvis falsk, og et umærket billede er ikke nødvendigvis sandt. Mærkningen angiver blot, at AI var involveret i skabelsen eller redigeringen. Forveksling mellem mærkning og sandhed er en af de mest udbredte misforståelser blandt forbrugere.
Mærkning er heller ikke påkrævet i alle tilfælde. Article 50 indeholder flere undtagelser: AI brugt som skriveassistent eller oversættelsesværktøj kræver ikke mærkning. Indhold, der er gennemgået og ansvarstaget af et menneske i en redaktionel proces, er undtaget. Tydelig kunstnerisk, satirisk eller fiktionsbaseret brug har mere fleksible krav, selvom selve eksistensen af AI stadig skal oplyses.
Endelig er et watermark eller en C2PA-signatur ikke en endegyldig løsning. Watermarks kan fjernes ved re-encoding, screenshots eller enkel billedredigering. Det betyder, at mærkning fungerer som et lag i en bredere AI Compliance-strategi, ikke som en selvstændig garanti.
EU AI Act: EU's omfattende AI-regulering, hvor Article 50 fastlægger de konkrete transparens- og mærkningskrav.
AI Watermarking: Tekniske metoder til at indlejre usynlige markører i AI-genereret indhold, så det kan detekteres senere.
C2PA (Content Credentials): Åben standard for kryptografisk signeret metadata, der dokumenterer indholds oprindelse og redigeringshistorik.
Synthetic Media: Samlebetegnelse for AI-skabt billede, video, lyd og tekst, herunder deepfakes.
AI Governance: De politikker og processer, der sikrer ansvarlig brug af AI i organisationen, inklusive mærkningsbeslutninger.
Human-in-the-Loop: Menneskelig gennemgang af AI-output, som kan udløse en undtagelse fra mærkningspligten, når mennesket tager redaktionelt ansvar.
AI Compliance: Den bredere disciplin omkring at leve op til AI-lovgivning, hvor indholdsmærkning er en af flere komponenter.
I marts 2026 blev kunstig intelligens for første gang den mest citerede årsag til fyringsrunder i...
Hvad hvis dine bedste AI-eksperter kunne gennemgå din tekst samtidigt, på få sekunder, og give dig...
Ifølge Gartners seneste prognose vil 90 % af alle B2B-køb være formidlet af AI-agenter inden 2028....