Hvad er Data Poisoning?
Data poisoning er en type cyberangreb, hvor en ondsindet aktør bevidst manipulerer de data, en AI-model trænes på. Formålet er at påvirke modellens adfærd, så den producerer forkerte, forudindtagede eller direkte skadelige resultater. Angrebet sker i træningsfasen, før modellen når i produktion, og kan derfor være ekstremt svært at opdage efterfølgende.
For virksomheder, der investerer i Machine Learning og Generativ AI, udgør data poisoning en reel og voksende trussel. Et kompromitteret datasæt kan betyde, at AI-systemet træffer systematisk forkerte beslutninger inden for alt fra kundeservice til risikovurdering. Forskning viser, at manipulation af blot 1-3% af træningsdata kan påvirke en models nøjagtighed markant.
Data poisoning er i 2026 ikke længere et akademisk scenarie. Det er en konkret angrebsflade, som kræver aktiv styring på linje med øvrig cybersikkerhed.
Hvordan virker data poisoning?
Data poisoning fungerer ved, at angriberen indsætter korrupte, manipulerede eller vildledende datapunkter i det datasæt, en model lærer fra. Det kan ske ved at tilføje nye datapunkter, ændre eksisterende data eller fjerne kritiske eksempler. Resultatet er en model, der har lært mønstre, som ikke afspejler virkeligheden, men derimod angriberens intention.
Der findes flere angrebstyper. Ved backdoor poisoning planter angriberen en skjult trigger i datasættet. Modellen opfører sig normalt under test, men reagerer forudsigeligt forkert, når triggeren optræder i produktion. Ved label flipping ændres klassifikationen af datapunkter, så modellen systematisk fejlklassificerer bestemte inputs. Clean-label angreb er særligt sofistikerede, fordi de manipulerede datapunkter ser korrekte ud ved inspektion.
For store sprogmodeller (LLM'er) har forskning vist, at det kan kræve så lidt som 250 forgiftede dokumenter at påvirke en models output, uanset modellens størrelse. Det gør angrebet overraskende tilgængeligt for ondsindede aktører.
Angrebsfladen er bred. Træningsdata kan komme fra offentlige datasæt, web scraping, brugergenereret indhold eller tredjepartskilder. Hver kilde udgør en potentiel indgang for data poisoning, hvis der ikke er etableret stærk dataprovenance og kvalitetskontrol.
Consile rådgiver om AI-sikkerhed og hjælper virksomheder med at beskytte deres AI-systemer mod trusler som data poisoning. Kontakt os for en vurdering af jeres AI-sikkerhedsberedskab.
Data poisoning i erhvervslivet
For virksomheder, der anvender AI i forretningskritiske processer, er data poisoning en direkte trussel mod operationel stabilitet. Et angrebet kan påvirke alt fra spam-filtre og anbefalingssystemer til kreditvurderinger og medicinsk diagnostik. Konsekvenserne er ikke kun tekniske, men også økonomiske og juridiske.
Inden for finans kan data poisoning skævvride risikomodeller, så investeringsbeslutninger baseres på systematisk forkerte analyser. I sundhedssektoren kan manipulerede træningsdata føre til fejldiagnoser. Inden for marketing og salg kan AI-hallucinationer og fejlvurderinger fra forgiftede modeller underminere kundeoplevelsen og virksomhedens troværdighed.
En vigtig udfordring er, at data poisoning ofte først opdages lang tid efter, at skaden er sket. I modsætning til softwaresårbarheder, der kan patches, kræver forgiftede modeller potentielt fuld genoptræning med rensede datasæt. Det er tidskrævende og dyrt, særligt i enterprise-skala.
Under EU AI Act stilles der krav til datakvalitet, transparens og risikostyring for AI-systemer. Data poisoning kompromitterer alle tre områder og kan dermed bringe virksomheder i konflikt med regulatoriske krav, hvis angreb går uopdagede.
Hvad data poisoning ikke er
Data poisoning forveksles ofte med adversarial attacks, men de to angrebstyper er fundamentalt forskellige. Data poisoning sker i træningsfasen og ændrer selve modellens indlærte mønstre. Adversarial attacks sker i inferensfasen og manipulerer de inputs, en allerede trænet model modtager. En adversarial attack ændrer ikke modellen selv, men forsøger at narre den med specialdesignede inputs.
Det er også en udbredt misforståelse, at internt udviklede AI-modeller er beskyttede mod data poisoning. Angrebsvektoren virker gennem adgang til træningsdata, uanset om modellen er bygget in-house eller købt eksternt. Faktisk har internt udviklede modeller typisk færre sikkerhedsaudits end kommercielle modeller fra store leverandører.
Endelig er data poisoning ikke det samme som dårlig datakvalitet. Dårlig datakvalitet er utilsigtet og skyldes mangelfulde processer. Data poisoning er en bevidst, målrettet handling med et specifikt formål. Begge kræver opmærksomhed, men forsvarsstrategien er fundamentalt anderledes.
Relaterede termer
Guardrails er de tekniske og proceduremæssige kontroller, der holder AI-systemer inden for acceptable grænser. Lær hvordan guardrails beskytter din virksomhed.
Prompt injection er den mest udbredte sårbarhed i AI-systemer. Forstå hvordan angreb fungerer, hvorfor de er farlige for virksomheder, og hvordan du beskytter dig.
Red teaming for AI er struktureret, modstandsdygtig test af AI-systemer. Lær hvordan virksomheder finder sårbarheder, før de bliver udnyttet.
Ansvarlig AI handler om at udvikle og bruge AI-systemer, der er retfærdige, gennemsigtige og sikre. Forstå principperne og praksis.
AI Governance er den organisatoriske ramme for ansvarlig AI-brug. Forstå hvad det indebærer og hvorfor det er afgørende for din virksomhed.
EU AI Act er den første omfattende AI-lovgivning i verden. Forstå kravene, risikokategorierne og hvad det betyder for danske virksomheder.
AI-hallucinationer er, når AI genererer overbevisende men forkerte svar. Forstå hvorfor det sker og hvordan du reducerer risikoen.
Ofte stillede spørgsmål om Data Poisoning
Kan data poisoning ramme vores virksomhed, hvis vi bruger færdige AI-modeller?+
Ja. Også kommercielle modeller trænes på store datasæt, der potentielt kan være kompromitterede. Derudover er virksomheder, der fine-tuner modeller med egne data, sårbare, hvis de interne datapipelines ikke er sikrede. Risikoen eksisterer uanset om I bygger selv eller køber.
Hvordan opdager vi, om vores AI-model er blevet udsat for data poisoning?+
Løbende model monitoring er afgørende. Overvåg for uventede ændringer i modelperformance, systematiske fejl i specifikke kategorier, og afvigelser mellem forventet og faktisk output. Consile hjælper med at etablere monitoring og evalueringsrammer, der fanger anomalier tidligt.
Hvad er de vigtigste forsvarsstrategier?+
De tre vigtigste er dataprovenance (kend og validér dine datakilder), kontinuerlig overvågning (monitorér modeladfærd i produktion), og adversarial testing (test aktivt for sårbarheder med red teaming). Derudover bør adgangskontrol til træningsdata være stram.