Skip to content
AI Ordbog / Model Security

Model Security

Model Security dækker de trusler, sårbarheder og forsvarsstrategier, der beskytter AI-modeller mod angreb. Lær hvad din virksomhed bør vide.

Model Security
Frame 4
Frame 3
Frame 2
Frame 1
Frame 5
Model Security
AI ORDBOG

Hvilke trusler retter sig mod AI-modeller?

Angrebsfladen for en AI-model er bredere, end de fleste organisationer forventer. Den strækker sig fra det øjeblik, data indsamles til træning, til modellen kører i produktion og håndterer forespørgsler fra brugere eller andre systemer.

Data poisoning er en af de mest grundlæggende trusler. Angriberen injicerer korrupte eller vildledende datapunkter i træningssættet, så modellen lærer forkerte mønstre. Resultatet kan være en model, der systematisk fejlklassificerer bestemte inputs, uden at fejlen er synlig i standard-evalueringer.

Adversarial attacks retter sig mod modellen i drift. Her manipuleres inputdata med minimale ændringer, der er usynlige for mennesker, men får modellen til at producere forkerte resultater. Et klassisk eksempel er billedgenkendelse, der fejler på grund af pixelændringer, menneskeøjet ikke registrerer.

Model inversion og model extraction er trusler, hvor angribere forsøger at rekonstruere træningsdata eller kopiere selve modellen ved at analysere dens outputs. Det er særligt kritisk for modeller trænet på persondata eller forretningshemmeligheder.

For store sprogmodeller tilføjer prompt injection en ekstra dimension. Et velformuleret prompt kan omgå modellens sikkerhedsforanstaltninger og få den til at afsløre systemprompter, ignorere restriktioner eller udføre uønskede handlinger.

Model Security i erhvervslivet

Virksomheder bruger AI-modeller til beslutninger, der påvirker omsætning, kundetilfredshed og risikostyring. Når en model kompromitteres, rammer konsekvenserne direkte på bundlinjen. En manipuleret kreditscoringsmodel kan godkende lån, der burde afvises. En forgiftet anbefalingsmodel kan drive kunder mod urentable produkter.

Finanssektoren er et oplagt eksempel. Her anvendes modeller til fraud detection, kreditvurdering og algoritmisk handel. Et succesfuldt angreb på en fraud-detection-model kan åbne døren for systematisk svindel, der først opdages, når skaden er sket.

Sundhedssektoren bruger AI til diagnostik og behandlingsanbefalinger. Model security er her bogstaveligt talt et spørgsmål om liv og død. Ansvarlig AI og robust sikkerhed går hånd i hånd.

For virksomheder, der opererer under EU AI Act, er model security desuden et compliance-krav. Højrisiko-AI-systemer skal dokumentere sikkerhedsforanstaltninger, og manglende beskyttelse kan resultere i bøder og driftstop.

Den praktiske tilgang til model security i erhvervslivet omfatter fire lag: sikring af træningsdata med proveniens-checks og anomalidetektion, beskyttelse af modelparametre med kryptering og adgangskontrol, overvågning af modellen i produktion med real-time threat detection, og governance-processer, der sikrer løbende auditering og opdatering.

Hvad Model Security ikke er

Model security er ikke det samme som generel IT-sikkerhed. Traditionelle firewalls og antivirusprogrammer beskytter infrastrukturen, men de fanger ikke et data-poisoning-angreb eller en adversarial input. AI-modeller kræver specialiserede sikkerhedskontroller, der forstår den statistiske natur af machine learning.

Det er heller ikke det samme som guardrails. Guardrails styrer, hvad en model må og ikke må svare på. Model security handler om at beskytte selve modellen mod at blive kompromitteret, manipuleret eller stjålet. De to discipliner supplerer hinanden, men dækker forskellige risici.

Endelig er model security ikke en engangsindsats. Trusselsbilledet udvikler sig konstant. Nye angrebsmetoder dukker op, modeller opdateres, og data ændrer sig. Effektiv model security er en løbende proces med kontinuerlig monitorering, test og forbedring.

Relaterede termer

AI Governance: Den overordnede ramme for styring af AI-systemer, herunder sikkerhed, etik og compliance.

Guardrails: Regler og begrænsninger, der styrer en AI-models adfærd og output.

Prompt Injection: En angrebstype, der manipulerer sprogmodeller via ondsindet input i prompten.

EU AI Act: EU-regulering, der stiller krav til sikkerhed og dokumentation af AI-systemer.

Ansvarlig AI: Principper for etisk, transparent og sikker udvikling og brug af AI.

Red Teaming for AI: Systematisk test af AI-systemer ved at simulere angreb for at finde sårbarheder.

Data Privacy i AI: Beskyttelse af persondata i forbindelse med AI-træning og -drift.