EU Code of Practice (EU-adfærdskodeks for AI-genereret indhold)
EU Code of Practice for AI-genereret indhold er det frivillige adfærdskodeks, som EU-Kommissionen har udviklet for at understøtte overholdelse af EU AI Act Artikel 50. Kodekset fastlægger, hvordan AI-genereret og AI-manipuleret indhold skal mærkes og deklareres, så det er muligt at skelne mellem menneske- og maskinskabt indhold.
Kodekset retter sig mod alle, der i forretningsøjemed producerer eller distribuerer AI-genereret indhold rettet mod europæiske borgere. Det gælder reklamebureauer, medievirksomheder, tech-virksomheder, influencere og enhver organisation, der bruger generativ AI til at skabe tekst, billeder, video eller lyd til offentlig brug.
Gennemsigtighedsforpligtelserne i Artikel 50 træder i kraft 2. august 2026, og kodekset skal være færdiggjort inden juni 2026. For virksomheder, der allerede bruger AI i deres kommunikation, er tiden til forberedelse kort.
Hvordan virker EU's adfærdskodeks for AI-indhold?
Kodekset er bygget op i to hoveddele. Den første del handler om teknisk mærkning (marking) og detektion af AI-genereret indhold. Den anden del handler om synlig etikettering (labelling) af deepfakes og AI-genereret tekst om emner af offentlig interesse.
Den tekniske mærkning kræver en flerlags-tilgang. Udbydere af generative AI-systemer skal implementere sikret metadata og usynlige vandmærker (watermarks) i det indhold, deres systemer producerer. Derudover er der mulighed for fingerprinting og logging. Formålet er, at AI-genereret indhold kan identificeres maskinelt, uanset om det er et billede, en video, en lydfil eller en tekst.
Den synlige etikettering retter sig mod brugere, der anvender AI-systemer i professionel sammenhæng. Deepfakes skal tydeligt mærkes som kunstigt genereret eller manipuleret indhold. AI-genereret tekst om emner af offentlig interesse skal ligeledes deklareres. Undtagelsen er indhold, der tydeligt er kunstnerisk, kreativt, satirisk eller fiktivt, hvor en minimal og diskret angivelse er tilstrækkelig.
Kodekset skelner mellem tre roller med forskellige forpligtelser: modeludbydere (som OpenAI eller Anthropic), systemudbydere (virksomheder der bygger produkter oven på modellerne) og brugere (deployers), der anvender AI-systemerne i praksis. Alle tre led har ansvar for, at mærkningen bevares og kommunikeres korrekt.
Consile rådgiver om AI-compliance og gennemsigtighed. Kontakt os for at sikre, at jeres virksomhed er klar til mærkningskravene i EU AI Act Artikel 50.
Hvad betyder kodekset for virksomheder?
For danske virksomheder, der bruger AI til at producere indhold, er kodekset en konkret forberedelse på de lovkrav, der træder i kraft i august 2026. Selvom kodekset formelt er frivilligt, vil det sandsynligvis blive den standard, som EU AI Office og nationale tilsynsmyndigheder måler overholdelse efter.
Marketingafdelinger og reklamebureauer, der bruger generativ AI til at skabe kampagnemateriale, skal sikre, at indholdet er mærket korrekt. Det gælder både billeder genereret med DALL-E eller Midjourney, video skabt med Sora eller lignende, og tekst produceret med ChatGPT eller Claude. Mærkningen skal være maskinlæsbar og i mange tilfælde også synlig for slutbrugeren.
Medievirksomheder og forlag, der anvender AI som led i redaktionelle processer, har særlige forpligtelser, når det drejer sig om tekst om emner af offentlig interesse. Her kræves tydelig deklaration, uanset om AI har produceret hele teksten eller blot dele af den.
Tech-virksomheder, der integrerer AI-modeller via API i deres egne produkter, er systemudbydere og har fuldt ansvar under Artikel 50(2) for at sikre, at output fra deres systemer er korrekt mærket. En udbredt misforståelse er, at ansvaret udelukkende ligger hos modeludbyderen.
Virksomheder, der allerede har en AI governance-praksis, vil have lettere ved at tilpasse sig. For dem, der endnu ikke har taget stilling til intern AI-brug, er kodekset en anledning til at etablere klare retningslinjer.
Hvad kodekset ikke er
Kodekset er ikke en selvstændig lovgivning. Det er et praktisk værktøj, der understøtter overholdelse af AI Act Artikel 50. Virksomheder, der ikke tilslutter sig kodekset, er stadig forpligtede af loven, men de skal selv dokumentere, hvordan de lever op til kravene, og forklare dette til EU AI Office.
Kodekset dækker heller ikke alle aspekter af AI-regulering. Det fokuserer udelukkende på gennemsigtighed og mærkning af AI-genereret indhold. Det dækker ikke bredere emner som ansvarlig AI, bias, sikkerhed eller de risikobaserede krav, der gælder for højrisiko-AI-systemer under EU AI Act.
Endelig er kodekset adskilt fra den separate General-Purpose AI Code of Practice, som retter sig mod udbydere af generelle AI-modeller (GPAI) og dækker gennemsigtighed, ophavsret og sikkerhed. De to kodekser supplerer hinanden, men har forskelligt fokus og forskellige målgrupper.
Relaterede termer
EU AI Act er den første omfattende AI-lovgivning i verden. Forstå kravene, risikokategorierne og hvad det betyder for danske virksomheder.
AI Governance er den organisatoriske ramme for ansvarlig AI-brug. Forstå hvad det indebærer og hvorfor det er afgørende for din virksomhed.
Shadow AI er uautoriseret brug af AI-værktøjer i virksomheden. Forstå risikoen og hvordan du håndterer det.
Ofte stillede spørgsmål om EU Code of Practice
Er EU Code of Practice juridisk bindende?+
Nej, kodekset er frivilligt. Men de underliggende krav i AI Act Artikel 50 er bindende og træder i kraft 2. august 2026. Kodekset er den anbefalede vej til at demonstrere overholdelse. Virksomheder, der ikke følger kodekset, skal selv bevise over for EU AI Office, at de lever op til lovkravene.
Gælder kravene også for intern brug af AI?+
Kodekset og Artikel 50 fokuserer på indhold rettet mod offentligheden. Rent intern brug af AI (f.eks. interne notater eller analyser) er som udgangspunkt ikke omfattet af mærkningskravene. Men hvis AI-genereret indhold publiceres eksternt, uanset kanal, gælder forpligtelserne.
Hvordan kan Consile hjælpe med forberedelse til kodekset?+
Consile hjælper virksomheder med at kortlægge deres AI-brug, vurdere hvilke forpligtelser der gælder, og etablere processer for mærkning og deklaration af AI-genereret indhold. Vi rådgiver om både den tekniske implementering og den organisatoriske forankring.