Skip to content
AI Ordbog / EU Code of Practice (EU-adfærdskodeks for AI-genereret indhold)

EU Code of Practice (EU-adfærdskodeks for AI-genereret indhold)

EU's adfærdskodeks for mærkning af AI-genereret indhold under AI Act Artikel 50. Forstå kravene, tidslinjen og hvad det betyder for din virksomhed.

EU Code of Practice (EU-adfærdskodeks for AI-genereret indhold)
Frame 4
Frame 3
Frame 2
Frame 1
Frame 5
EU Code of Practice (EU-adfærdskodeks for AI-genereret indhold)
AI ORDBOG

Hvordan virker EU's adfærdskodeks for AI-indhold?

Kodekset er bygget op i to hoveddele. Den første del handler om teknisk mærkning (marking) og detektion af AI-genereret indhold. Den anden del handler om synlig etikettering (labelling) af deepfakes og AI-genereret tekst om emner af offentlig interesse.

Den tekniske mærkning kræver en flerlags-tilgang. Udbydere af generative AI-systemer skal implementere sikret metadata og usynlige vandmærker (watermarks) i det indhold, deres systemer producerer. Derudover er der mulighed for fingerprinting og logging. Formålet er, at AI-genereret indhold kan identificeres maskinelt, uanset om det er et billede, en video, en lydfil eller en tekst.

Den synlige etikettering retter sig mod brugere, der anvender AI-systemer i professionel sammenhæng. Deepfakes skal tydeligt mærkes som kunstigt genereret eller manipuleret indhold. AI-genereret tekst om emner af offentlig interesse skal ligeledes deklareres. Undtagelsen er indhold, der tydeligt er kunstnerisk, kreativt, satirisk eller fiktivt, hvor en minimal og diskret angivelse er tilstrækkelig.

Kodekset skelner mellem tre roller med forskellige forpligtelser: modeludbydere (som OpenAI eller Anthropic), systemudbydere (virksomheder der bygger produkter oven på modellerne) og brugere (deployers), der anvender AI-systemerne i praksis. Alle tre led har ansvar for, at mærkningen bevares og kommunikeres korrekt.

Hvad betyder kodekset for virksomheder?

For danske virksomheder, der bruger AI til at producere indhold, er kodekset en konkret forberedelse på de lovkrav, der træder i kraft i august 2026. Selvom kodekset formelt er frivilligt, vil det sandsynligvis blive den standard, som EU AI Office og nationale tilsynsmyndigheder måler overholdelse efter.

Marketingafdelinger og reklamebureauer, der bruger generativ AI til at skabe kampagnemateriale, skal sikre, at indholdet er mærket korrekt. Det gælder både billeder genereret med DALL-E eller Midjourney, video skabt med Sora eller lignende, og tekst produceret med ChatGPT eller Claude. Mærkningen skal være maskinlæsbar og i mange tilfælde også synlig for slutbrugeren.

Medievirksomheder og forlag, der anvender AI som led i redaktionelle processer, har særlige forpligtelser, når det drejer sig om tekst om emner af offentlig interesse. Her kræves tydelig deklaration, uanset om AI har produceret hele teksten eller blot dele af den.

Tech-virksomheder, der integrerer AI-modeller via API i deres egne produkter, er systemudbydere og har fuldt ansvar under Artikel 50(2) for at sikre, at output fra deres systemer er korrekt mærket. En udbredt misforståelse er, at ansvaret udelukkende ligger hos modeludbyderen.

Virksomheder, der allerede har en AI governance-praksis, vil have lettere ved at tilpasse sig. For dem, der endnu ikke har taget stilling til intern AI-brug, er kodekset en anledning til at etablere klare retningslinjer.

Hvad kodekset ikke er

Kodekset er ikke en selvstændig lovgivning. Det er et praktisk værktøj, der understøtter overholdelse af AI Act Artikel 50. Virksomheder, der ikke tilslutter sig kodekset, er stadig forpligtede af loven, men de skal selv dokumentere, hvordan de lever op til kravene, og forklare dette til EU AI Office.

Kodekset dækker heller ikke alle aspekter af AI-regulering. Det fokuserer udelukkende på gennemsigtighed og mærkning af AI-genereret indhold. Det dækker ikke bredere emner som ansvarlig AI, bias, sikkerhed eller de risikobaserede krav, der gælder for højrisiko-AI-systemer under EU AI Act.

Endelig er kodekset adskilt fra den separate General-Purpose AI Code of Practice, som retter sig mod udbydere af generelle AI-modeller (GPAI) og dækker gennemsigtighed, ophavsret og sikkerhed. De to kodekser supplerer hinanden, men har forskelligt fokus og forskellige målgrupper.

Relaterede termer

EU AI Act: Den europæiske forordning om kunstig intelligens, som adfærdskodekset understøtter. Kodekset er specifikt knyttet til Artikel 50 om gennemsigtighedsforpligtelser.

Generativ AI: Den type AI-teknologi, der producerer det indhold, som kodekset regulerer mærkningen af. Inkluderer tekst, billeder, video og lyd.

AI Governance: De interne processer og strukturer, en virksomhed etablerer for at styre AI-brug ansvarligt. God governance gør overholdelse af kodekset væsentligt lettere.

Ansvarlig AI: Det bredere princip om etisk og ansvarlig udvikling og anvendelse af AI, som kodeksets gennemsigtighedskrav er en del af.

Deepfakes: Realistisk syntetisk indhold skabt med AI. Kodekset stiller særskilte krav til synlig mærkning af deepfakes.

AI Transparency: Gennemsigtighed er kodeksets kernefokus, at gøre det klart for modtagere, hvornår indhold er skabt eller manipuleret af AI.