Vercel offentliggjorde i april 2026 en sikkerhedshændelse der startede et helt andet sted end deres...
Data privacy i AI handler om at beskytte persondata, når AI-systemer indsamler, behandler og træner på data. Forstå GDPR-kravene og bedste praksis for virksomheder.


AI-systemer adskiller sig fra traditionel software på flere måder, der udfordrer data privacy. For det første kræver træning af modeller store mængder data, og det er ikke altid gennemsigtigt, hvilke data der er brugt. Når en LLM eller en anden model er trænet på data, kan det være teknisk svært at fjerne specifikke datapunkter igen.
For det andet kan AI-systemer afsløre persondata utilsigtet. Et fænomen kendt som "memorization" betyder, at sprogmodeller i sjældne tilfælde kan gengive fragmenter af deres træningsdata, herunder navne, adresser eller andre personoplysninger. Det rejser spørgsmålet om, hvorvidt data reelt er anonymiseret, eller blot er skjult bag et lag af kompleksitet.
For det tredje skaber generativ AI nye udfordringer. Når medarbejdere bruger AI-værktøjer som chatbots eller copilots, kan de ubevidst uploade kundedata, interne dokumenter eller fortrolige oplysninger til eksterne platforme. Dette fænomen, ofte relateret til Shadow AI, er en af de hyppigste årsager til databrud i forbindelse med AI.
Endelig er der spørgsmålet om samtykke. GDPR kræver, at der er et lovligt grundlag for at behandle persondata, og det gælder også, når data bruges til at træne eller køre AI-modeller. Mange virksomheder opdager for sent, at deres datagrundlag ikke er tilstrækkeligt dokumenteret.
Data privacy er ikke længere en compliance-øvelse, der håndteres af juridisk afdeling, efter at systemet er bygget. Det er en designbeslutning, der træffes fra start. Princippet "privacy by design", som GDPR forankrer i artikel 25, betyder i praksis, at AI-arkitektur, dataflow og leverandørvalg skal tage højde for databeskyttelse fra det tidspunkt, hvor et projekt planlægges.
I praksis påvirker det virksomheder på flere niveauer. Ved valg af AI-platform skal beslutningstagere vurdere, om leverandøren bruger kundernes data til modeltræning, hvor data opbevares, og hvilke adgangskontroller der er på plads. Enterprise-versioner af AI-værktøjer tilbyder typisk stærkere databeskyttelse end gratis forbrugerprodukter, men kontrakter og databehandleraftaler skal gennemgås grundigt.
Datatilsynet i Danmark har taget en aktiv rolle i at vejlede virksomheder. I 2024 lancerede Datatilsynet en regulatorisk sandkasse for AI, hvor virksomheder kan teste AI-løsninger i dialog med tilsynsmyndigheden. Det signalerer en tilgang, der balancerer innovation med beskyttelse, men det ændrer ikke de grundlæggende krav.
For virksomheder, der arbejder med AI Governance, er data privacy et centralt element i governance-rammeværket. Det forbinder tekniske valg (kryptering, anonymisering, adgangsstyring) med organisatoriske processer (konsekvensanalyser, registrering af behandlingsaktiviteter, uddannelse af medarbejdere).
Data privacy i AI er ikke det samme som datasikkerhed, selvom de to discipliner overlapper. Datasikkerhed handler om at beskytte data mod uautoriseret adgang (hacking, lækage). Data privacy handler om at sikre, at data bruges i overensstemmelse med den registreredes rettigheder og med lovgivningen. Et AI-system kan være teknisk sikkert, men stadig bryde med privacy-regler, hvis det behandler persondata uden lovligt grundlag.
Det er heller ikke en hindring for AI-innovation. Mange af de mest avancerede AI-virksomheder demonstrerer, at stærk data privacy og høj ydeevne kan gå hånd i hånd. Teknikker som differential privacy, federated learning og PII masking gør det muligt at træne modeller på følsomme data uden at eksponere individuelle datapunkter.
Endelig er data privacy i AI ikke et engangsprojekt. Det er en løbende disciplin. Modeller ændrer sig, datakilder skifter, og lovgivning udvikler sig. EU AI Act, der træder fuldt i kraft i august 2026, tilføjer nye krav oven på GDPR, herunder konsekvensanalyser for grundlæggende rettigheder og krav om menneskelig kontrol af højrisiko-systemer.
AI Governance: Den overordnede ramme for styring, kontrol og ansvarlighed i AI-systemer, hvor data privacy indgår som et kerneelement.
EU AI Act: EU's nye lovgivning for AI-systemer, der supplerer GDPR med krav til risikovurdering, dokumentation og gennemsigtighed.
Ansvarlig AI (Responsible AI): Det bredere begreb for etisk og forsvarlig brug af AI, herunder fairness, gennemsigtighed og netop data privacy.
Shadow AI: Uautoriseret brug af AI-værktøjer i en organisation, som ofte er den største kilde til privacy-risici.
PII Masking (Data Anonymization): Teknikker til at fjerne eller maskere personhenførbare oplysninger i data, der bruges til AI.
Guardrails: Tekniske og organisatoriske begrænsninger, der sikrer, at AI-systemer opererer inden for accepterede rammer, herunder privacy.
Federated Learning: En træningsteknik, der holder data lokalt og kun deler modelopdateringer, hvilket styrker data privacy.
Vercel offentliggjorde i april 2026 en sikkerhedshændelse der startede et helt andet sted end deres...
Et kinesisk forskerteam har bygget et system der designer nye AI-arkitekturer, renser træningsdata...
Den 31. marts 2026 publicerede nordkoreanske hackere to kompromitterede versioner af axios, en af...