Skip to content

AI-copyright: Hvem ejer det, jeres AI er trænet på?

Britiske House of Lords kaldte for nylig generativ AI en "clear and present danger" for ophavsretten og krævede en licensbaseret tilgang til al AI-træning. Samtidig skærper EU kravene til transparens om træningsdata med bøder på op til 15 millioner euro.

For danske virksomheder, der bruger AI til alt fra content generation til kundeanalyse, er copyright-spørgsmålet ikke længere akademisk. Det er en konkret forretningsrisiko, som kan ramme både dem, der udvikler egne modeller, og dem, der blot bruger ChatGPT i hverdagen. Her er det, du skal vide.

 

Det globale copyright-oprør mod AI: Hvad sker der lige nu?

 

I marts 2026 offentliggjorde det britiske House of Lords' Communications and Digital Committee en banebrydende rapport, der utvetydigt anbefaler en "licensing-first" tilgang til AI-træning. Komiteen afviser enhver undtagelse, der ville lade AI-udviklere træne på ophavsretsbeskyttet materiale uden samtykke, og kræver i stedet lovpligtig transparens om træningsdata samt nye beskyttelser mod efterligning af kreative personers stil og identitet. Visionen er, at UK skal blive international førerland inden for licensbaseret AI-udvikling.

Parallelt hermed skærper EU kravene gennem EU AI Act. Article 53 kræver, at alle udbydere af general-purpose AI-modeller (GPAI) offentliggør detaljerede resuméer af deres træningsindhold. Skabelonen, som EU's AI Office har udgivet, kræver oplysninger om datatyper, datakilder, indsamlingsmetoder, offentlige datasæt og licenserede kilder. Kravene trådte i kraft i august 2025, og fra august 2026 begynder fuld håndhævelse med bøder på op til 15 millioner euro eller 3% af global omsætning.

I USA kører retssagerne for fuld kraft. New York Times mod OpenAI er den mest profilerede sag, hvor en føderal dommer i januar 2026 pålagde OpenAI at udlevere 20 millioner ChatGPT-logfiler som del af bevisindsamlingen. Sagen tester, om AI-virksomheders brug af ophavsretsbeskyttet materiale til træning er beskyttet af "fair use"-doktrinen. Andre retssager involverer Getty Images mod Stability AI og en voksende liste af forfattere og musikere, der kræver erstatning for uautoriseret brug af deres værker.

Kontrasten mellem USA's fair use-tilgang og EU/UK's licensbaserede model skaber et komplekst regulatorisk landskab for internationale virksomheder. EU Copyright Directive giver allerede rettighedshavere mulighed for at reservere deres rettigheder og forhindre brug i AI-træning via opt-out-mekanismer, en rettighed som flere og flere store mediehuse og kreative organisationer nu aktivt benytter.

Det er værd at bemærke, at EU's tilgang med Article 53 går videre end blot at kræve transparens. GPAI-udbydere skal offentliggøre oplysninger om de mest relevante domæner, der er scraped, licenserede og private datakilder, brugerdata og syntetisk data. Det betyder, at virksomheder som OpenAI, Google og Anthropic snart skal afsløre langt mere om, hvad deres modeller faktisk er bygget på. For virksomheder, der vælger AI-leverandør, bliver denne transparens et nyt og vigtigt evalueringskriterium.

Derudover har House of Lords-rapporten identificeret et centralt juridisk hul: Nuværende lovgivning beskytter ikke tilstrækkeligt mod AI-systemer, der efterligner en persons stil, stemme eller visuelle udtryk, uden at kopiere et specifikt ophavsretsbeskyttet værk direkte. Komiteen anbefaler nye beskyttelser mod uautoriserede digitale replikaer og visse "in the style of"-anvendelser. For virksomheder, der bruger AI til at generere marketingmateriale, copywriting eller visuelt indhold, er dette en udvikling, der kræver øget opmærksomhed. Den kreative industri i UK alene bidrager med over 124 milliarder pund til økonomien, og lignende protektionistiske tendenser breder sig til resten af Europa.

 

Hvem hæfter, hvis min AI-leverandørs model er trænet på ophavsretsbeskyttet materiale?

Det afhænger af jeres leverandøraftale. De fleste store AI-udbydere som OpenAI og Google tilbyder en form for IP-indemnification i deres enterprise-aftaler, men dækningen varierer betydeligt. Gratisversioner og standard-API-planer indeholder typisk ingen beskyttelse. Gennemgå altid jeres Terms of Service, og sørg for at IP-ansvar er eksplicit adresseret i kontrakten, før I anvender AI-output kommercielt.

Gælder EU's transparenskrav også for virksomheder, der kun bruger AI og ikke udvikler modeller?

Article 53 i EU AI Act retter sig primært mod udbydere af GPAI-modeller, ikke slutbrugere. Men der er downstream-ansvar: Hvis din virksomhed fine-tuner en model, bruger RAG med ophavsretsbeskyttet materiale, eller træner egne modeller, kan I blive betragtet som udbyder. Desuden kan jeres kunder og samarbejdspartnere stille krav om dokumentation for, at jeres AI-løsninger overholder copyright-reglerne.

Kan vi beskytte os ved at bruge open-source AI-modeller i stedet for kommercielle?

Open-source-modeller fritager jer ikke automatisk for copyright-ansvar. Mange open-source-modeller er trænet på de samme datasæt som kommercielle modeller, og licensbetingelserne varierer. Tjek altid modellens model card og træningsdata-dokumentation. En sikrere strategi er at vælge modeller med dokumenteret licenseret eller syntetisk træningsdata og supplere med jeres egne, verificerede datasæt.

 

 

Hvad betyder det for din virksomhed, selvom du "bare bruger" ChatGPT?

 

Mange danske virksomheder tænker, at copyright-problematikken kun rammer dem, der bygger egne AI-modeller. Det er en farlig misforståelse. Risikoen er lagdelt og rammer på flere niveauer. Virksomheder, der fine-tuner modeller, træner egne LLM'er, eller bruger RAG (Retrieval-Augmented Generation) med ophavsretsbeskyttet materiale, har en direkte eksponering. Men selv standardbrug af AI-API'er kan skabe ansvar, hvis det genererede output ligner beskyttet materiale tilstrækkeligt til at udgøre en krænkelse.

Der er også en vigtig skelnen mellem direkte og indirekte copyright-risiko. Direkte risiko opstår, når en virksomhed aktivt træner, fine-tuner eller beriger en AI-model med ophavsretsbeskyttet materiale. Indirekte risiko opstår, når AI-genereret output tilfældigvis ligner eller reproducerer beskyttet materiale. Begge typer kan medføre juridisk ansvar, men de kræver forskellige forebyggelsesstrategier. Direkte risiko håndteres gennem streng datakontrol, mens indirekte risiko kræver output-monitorering og review-processer.

Spørgsmålet om leverandøransvar er centralt. Hvem hæfter, når ChatGPT producerer tekst, der minder om en bestemt forfatters stil, eller når en billedgenerator skaber værker, der ligner et bestemt brands visuelle identitet? De fleste enterprise-aftaler indeholder en form for IP-indemnification, men gratisversioner og standard-API-planer tilbyder typisk ingen beskyttelse. Det er afgørende at gennemgå jeres specifikke aftalevilkår og forstå, hvor ansvaret placeres.

Ifølge Dansk Erhverv bruger 70% af danske virksomheder nu AI, men kun 26% har defineret klart AI-ansvar internt. Det efterlader et markant governance-gab, hvor mange organisationer opererer i en gråzone uden overblik over deres juridiske eksponering. Særligt marketing- og content-teams, der dagligt bruger generativ AI til at producere tekster, billeder og kampagnemateriale, kan ubevidst krænke andres ophavsret.

For SMV'er er situationen særlig kritisk. Større virksomheder har typisk juridiske afdelinger, der kan navigere i det komplekse regulatoriske landskab. Mindre virksomheder mangler ofte denne ekspertise og risikerer at overse forpligtelser, der kan resultere i betydelige bøder eller erstatningskrav. At ignorere copyright-spørgsmålet er ikke længere en realistisk strategi.

Et konkret eksempel illustrerer risikoen: Forestil dig en dansk marketingafdeling, der bruger et AI-billedgenereringsværktøj til at skabe kampagnebilleder. Hvis værktøjet producerer et billede, der visuelt minder om et beskyttet fotografi i Getty Images' database, kan virksomheden potentielt blive holdt ansvarlig for copyright-krænkelse. Det er ikke nok at henvise til, at "AI'en lavede det". Ansvaret for at sikre, at output ikke krænker andres rettigheder, hviler i sidste ende på den virksomhed, der anvender og publicerer indholdet. Dette princip gælder også for tekstgenerering, hvor AI-producerede artikler kan indeholde passager, der er for tæt på eksisterende ophavsretsbeskyttet materiale.

 

Fem konkrete trin til at beskytte din virksomhed

 

Det første og vigtigste skridt er at lave en grundig audit af jeres AI-stack. Kortlæg præcis hvilke AI-modeller og -tjenester I bruger på tværs af organisationen, hvad de er trænet på, og hvordan I anvender dem. Mange virksomheder opdager, at Shadow AI florerer i afdelinger, hvor medarbejdere bruger AI-værktøjer uden IT-afdelingens viden. Denne kortlægning er fundamentet for al efterfølgende AI compliance.

Dernæst bør I gennemgå alle leverandøraftaler med fokus på IP-indemnification. Spørg specifikt: Dækker aftalen copyright-krav relateret til AI-output? Hvad er leverandørens ansvar, hvis deres model viser sig at være trænet på ophavsretsbeskyttet materiale uden tilladelse? Sikr desuden, at al data, I selv bruger til træning, fine-tuning eller RAG, er enten egenproduceret eller korrekt licenseret. Dokumentér dette omhyggeligt, da I kan blive bedt om at bevise det.

Det tredje skridt handler om at implementere respekt for opt-out-mekanismer. Tjek robots.txt og copyright-reservationer, før I scraper eller indekserer indhold. EU Copyright Directive giver rettighedshavere en eksplicit ret til at fravælge AI-træning, og at ignorere disse signaler kan udgøre en direkte krænkelse. Det fjerde skridt er at opbygge interne retningslinjer for AI-brug, der eksplicit adresserer copyright. Definér klare regler for, hvilke typer AI-genereret indhold der må publiceres uden ekstra review, og hvilke der kræver juridisk eller redaktionel godkendelse. Sørg for, at alle medarbejdere, ikke kun IT-afdelingen, forstår de grundlæggende regler.

Endelig bør I som femte skridt forberede jer på EU's transparenskrav, selv hvis I ikke er GPAI-udbydere. Downstream-krav kan ramme jer, hvis jeres kunder eller partnere kræver dokumentation for, at de AI-løsninger, I leverer, overholder gældende regler for AI risk management. GPAI-udbydere skal ifølge EU-Kommissionens skabelon opdatere deres træningsdata-resuméer mindst hver sjette måned, og jeres egen dokumentation bør følge en lignende kadence. At have orden i papirerne er ikke blot en juridisk nødvendighed, men også et signal til kunder og partnere om, at I tager ansvarlig AI alvorligt.

Er din virksomhed klar til AI-copyright-reglerne?

Få en uforpligtende vurdering af jeres AI-compliance og copyright-risiko. Vi hjælper jer med at navigere det nye regulatoriske landskab.

 

 

Copyright som konkurrencefordel: Den positive vinkel

 

Mens mange ser copyright-reglerne som en byrde, er der en voksende erkendelse af, at proaktiv håndtering af AI-copyright kan blive en reel konkurrencefordel. Virksomheder, der kan dokumentere, at deres AI-løsninger er bygget på licenseret eller egenproduceret data, opbygger en tillid hos kunder og partnere, som bliver stadig mere værdifuld i takt med, at bevidstheden om copyright-risici stiger. En "clean data"-strategi kan blive et differentierings-parameter på linje med GDPR-compliance.

Det handler også om at forstå, at copyright-landskabet for AI er i konstant bevægelse. De retsprincipper, der gælder i dag, kan ændre sig dramatisk med nye domme og lovgivning. Virksomheder, der allerede har implementeret et robust AI governance-framework, vil kunne tilpasse sig hurtigere og med lavere omkostninger. De, der venter, risikerer at stå over for en pludselig og dyr omstilling, når reguleringen skærpes, eller en retssag sætter ny præcedens.

Flere store virksomheder har allerede vist vejen. Shutterstock indgik tidligt en licensaftale med OpenAI om brug af deres billedbibliotek til AI-træning og modtager royalties til deres bidragydere. Adobe har lanceret sit Firefly-produkt, der udelukkende er trænet på licenseret indhold fra Adobe Stock. Associated Press har indgået en lignende aftale om brug af deres nyhedsarkiv. Disse eksempler viser, at der kan skabes en bæredygtig model, hvor foundation models trænes ansvarligt, og rettighedshavere kompenseres.

For danske virksomheder åbner dette også en ny mulighed: Jeres egne data, jeres unikke indhold og jeres domænespecifikke viden kan potentielt licenseres til AI-træning. Det, der i dag er en omkostning, kan i morgen blive en indtægtskilde. Men det kræver, at I har styr på jeres egne rettigheder, og at I dokumenterer og beskytter jeres intellektuelle ejendom systematisk. I en verden, hvor kvalitetsdata til AI-træning bliver en knap ressource, kan velorganiserede, licensérbare datasæt blive lige så værdifulde som de AI-modeller, der trænes på dem.

Transparens er også en stigende forventning fra kunderne. I takt med at forbrugere og B2B-indkøbere bliver mere bevidste om, hvordan AI fungerer, vil de i stigende grad efterspørge dokumentation for, at de produkter og tjenester, de køber, er udviklet ansvarligt. Virksomheder, der proaktivt kommunikerer om deres AI-copyright-praksis, kan bruge det som et salgsargument. Tænk på det som en parallel til bæredygtighedscertificeringer: Ingen var tvunget til at have dem i starten, men de virksomheder, der var tidligt ude, høstede en betydelig tillidsbonus.

AI-copyright er ikke et emne, der forsvinder. Med EU AI Act-deadlinen den 2. august 2026, retssager der eskalerer, og en global bevægelse mod strengere licensering, er tiden til at handle nu. De virksomheder, der investerer i compliance og transparens i dag, vil stå stærkest i morgen, både juridisk og kommercielt. Det handler ikke kun om at undgå bøder, men om at bygge et fundament af tillid, der gør jeres AI-strategi bæredygtig på lang sigt. Start med en audit, gennemgå jeres aftaler, og tag ejerskab over jeres data. Det er det bedste, I kan gøre for jeres virksomhed lige nu.