Skip to content
AI Ordbog / AI-nudificering (AI Nudification)

AI-nudificering (AI Nudification)

AI-nudificering bruger AI til at generere falske nøgenbilleder uden samtykke. Forstå teknologien, de juridiske konsekvenser og hvordan virksomheder bør forholde sig.

AI-nudificering (AI Nudification)
Frame 4
Frame 3
Frame 2
Frame 1
Frame 5
AI-nudificering (AI Nudification)
AI ORDBOG

Hvordan virker AI-nudificering?

AI-nudificering bygger på en type deep learning-model kaldet Generative Adversarial Networks (GANs). To neurale netværk arbejder mod hinanden: det ene genererer billeder, det andet vurderer, om billederne ser realistiske ud. Gennem denne proces lærer systemet at producere stadig mere overbevisende resultater.

I praksis uploader en bruger et almindeligt foto af en person. AI-modellen analyserer billedet, identificerer kroppen og genererer en syntetisk version, hvor tøjet er erstattet med en konstrueret nøgen krop. Resultatet er et falsk billede, der kan se realistisk ud, men som aldrig har eksisteret i virkeligheden.

Teknologien er blevet markant lettere tilgængelig. Hvor det tidligere krævede teknisk viden at køre sådanne modeller, findes der i dag apps og webbaserede tjenester, der automatiserer hele processen. Ifølge Tech Transparency Project er apps med denne funktionalitet blevet downloadet hundredvis af millioner gange på tværs af Apple og Google app-butikker.

Det er vigtigt at forstå, at outputtet er syntetiske medier. Det afbildede er ikke virkeligt, men skadevirkningerne for offeret er det. Billeder kan bruges til chikane, afpresning og digitalt overgreb, og ofrene er i langt overvejende grad kvinder og piger.

AI-nudificering som virksomhedsrisiko

For virksomheder er AI-nudificering ikke et fjernt fænomen. Det rammer direkte på flere niveauer. Medarbejdere kan blive ofre, og i værste fald kan kolleger stå bag. Sager fra skoler og arbejdspladser viser, at AI-genererede intime billeder kan cirkulere internt og skabe fjendtlige arbejdsmiljøer, juridiske krav og alvorlig reputationsskade.

Under EU AI Act er AI-nudificering klassificeret som en forbudt AI-praksis fra december 2026. Virksomheder, der udvikler, distribuerer eller anvender sådanne systemer, risikerer bøder på op til 35 millioner euro eller 7 procent af global omsætning. Det gælder også platforme, der hoster indholdet uden tilstrækkelige foranstaltninger.

Danmarks nationale deepfake-lovgivning tilføjer et ekstra lag: borgere får ret til at kræve øjeblikkelig fjernelse af AI-genereret indhold, der bruger deres fysiske fremtoning, og virksomheder kan holdes erstatningsansvarlige uden at offeret behøver at bevise skade på omdømme.

Virksomheder bør som minimum have en klar AI-politik, der eksplicit forbyder brug af generative AI-værktøjer til at skabe intimt eller seksuelt indhold af virkelige personer. Politikken bør integreres i eksisterende retningslinjer for IT-brug, databeskyttelse og AI governance.

Hvad AI-nudificering ikke er

AI-nudificering er ikke det samme som deepfakes generelt. Deepfakes dækker bredt over AI-genereret syntetisk medie, herunder video og lyd. AI-nudificering er en specifik underkategori, der udelukkende handler om at generere intime billeder uden samtykke. Ikke alle deepfakes er nudificering, men al nudificering er en form for deepfake.

Det er heller ikke et lovligt værktøj, der bare kan misbruges. I modsætning til mange andre AI-teknologier, der har legitime anvendelser, er selve formålet med nudificeringsværktøjer at producere ikke-samtykkebaseret intimt materiale. Det er derfor, EU har valgt at forbyde teknologien som kategori, ikke blot regulere dens anvendelse.

Endelig bør man ikke forveksle AI-nudificering med lovlig brug af generativ AI til billedproduktion. Generativ AI bruges legitimt i design, marketing og kreative processer. Afgrænsningen ligger i samtykke og formål: generering af intimt indhold af identificerbare personer uden deres accept er altid ulovligt.

Relaterede termer

Deepfake-mærkning (Deepfake Labeling): Krav om at mærke AI-genereret syntetisk indhold, herunder manipulerede billeder og video, så modtagere kan identificere det som kunstigt fremstillet.

AI-indholdsmaerkning (AI Content Labeling): Bredere praksis for at markere alt AI-genereret indhold med metadata, der gør det maskinelt detekterbart og gennemsigtigt for brugere.

EU AI Act: EU-forordningen, der klassificerer AI-systemer efter risiko og fra december 2026 forbyder nudificeringsværktøjer som en forbudt AI-praksis med bøder op til 35 millioner euro.

Ansvarlig AI (Responsible AI): Den overordnede tilgang til at udvikle og anvende AI-systemer etisk, transparent og i overensstemmelse med samfundets værdier og lovgivning.

AI Governance: Rammerne for styring, overvågning og kontrol af AI-systemer i en organisation, herunder politikker der adresserer misbrug som nudificering.

C2PA (Content Credentials): Åben standard for indholdsautenticitet, der gør det muligt at spore ophav og ændringer i digitale medier, relevant for at bekæmpe manipulerede billeder.