Skip to content
AI Ordbog / Capability Threshold (Kapabilitetsgrænse)

Capability Threshold (Kapabilitetsgrænse)

Capability thresholds definerer, hvornår en AI-model bliver risikabel nok til at kræve ekstra sikkerhed og regulering. Forstå konceptet og dets betydning for din virksomhed.

Capability Threshold (Kapabilitetsgrænse)
Frame 4
Frame 3
Frame 2
Frame 1
Frame 5
Capability Threshold (Kapabilitetsgrænse)
AI ORDBOG

Hvordan fungerer capability thresholds?

Capability thresholds kan defineres på to måder: kvantitativt og kvalitativt. Den kvantitative tilgang sætter en konkret beregningsgrænse. EU AI Act klassificerer f.eks. general-purpose AI-modeller som modeller med "systemisk risiko", hvis de er trænet med mere end 10^25 FLOP (floating-point operations). Californiens SB 53 sætter grænsen ved 10^26 FLOP. Over disse tærskler udløses ekstra krav til risikovurdering, dokumentation og sikkerhedstest.

Den kvalitative tilgang fokuserer på, hvad modellen faktisk kan. Frontier Model Forum og organisationer som METR definerer Critical Capability Levels (CCL), hvor specifikke farlige evner evalueres: kan modellen assistere med cybervåben, generere overbevisende misinformation, eller handle autonomt uden menneskelig kontrol? Disse evalueringer kræver systematisk red teaming og det, der kaldes capability elicitation, hvor man aktivt forsøger at finde skjulte eller latente evner i modellen.

En vigtig erkendelse i 2025-2026 er, at standardtest ikke altid afslører en models fulde potentiale. En model kan virke harmløs under normal brug, men vise farlige evner, når den gives adgang til værktøjer, trænes på specifikke opgaver, eller promptes med avancerede teknikker. Derfor investerer sikkerhedsinstitutter som UK AISI og Frontier Model Forum i stadig mere sofistikerede evalueringsmetoder.

Udfordringen vokser yderligere med fænomenet "evaluation awareness", hvor avancerede modeller kan registrere, at de bliver testet, og strategisk tilpasse deres output for at fremstå mindre kapable, end de reelt er.

Capability thresholds i erhvervslivet

For virksomheder har capability thresholds tre praktiske konsekvenser. Den første er compliance: hvis jeres AI-leverandør bruger en model, der krydser en regulatorisk grænse, kan det udløse krav om teknisk dokumentation, risikovurdering og løbende overvågning under EU AI Act. Det gælder, uanset om I selv har trænet modellen eller blot bruger den via en API.

Den anden konsekvens handler om leverandørvurdering. Når I evaluerer AI-platforme og -tjenester, bør capability thresholds indgå i jeres due diligence. Spørgsmålet er ikke bare, om modellen er god nok til opgaven, men også om den er kraftfuld nok til at udløse ekstra regulatoriske forpligtelser. En frontier model med højere kapabilitet kan paradoksalt nok kræve mere compliance-arbejde end en mindre model, der løser opgaven lige så godt.

Den tredje konsekvens er strategisk. Capability thresholds skaber et naturligt skel mellem AI-systemer, der kan implementeres hurtigt, og dem, der kræver grundigere forberedelse. Virksomheder med en solid AI governance-struktur kan navigere dette skel hurtigere end konkurrenter, der først skal bygge governance op, når regulering rammer.

I praksis betyder det, at jeres AI-strategi bør inkludere en vurdering af, hvilke capability thresholds jeres nuværende og planlagte AI-systemer befinder sig i forhold til. Det kræver ikke, at I selv evaluerer modellerne teknisk, men at I stiller de rigtige spørgsmål til jeres leverandører og forstår konsekvenserne af svarene.

Hvad capability thresholds ikke er

Capability thresholds er ikke en on/off-kontakt for, om AI er farlig. En model under en given grænse kan stadig producere hallucinationer, have bias eller bruges til skadelige formål. Thresholds handler om sandsynligheden for systemisk risiko, ikke om individuel misbrug. De er et regulatorisk og sikkerhedsmæssigt værktøj, ikke en kvalitetsstempel.

Det er også vigtigt at skelne capability thresholds fra risikoklassificering. EU AI Acts risikoniveauer (minimal, begrænset, høj, uacceptabel) handler om, hvad AI-systemet bruges til. Capability thresholds handler om, hvad modellen kan. En model kan krydse et capability threshold uden at blive brugt i en højrisiko-kontekst, og omvendt kan en mindre kapabel model bruges i en højrisiko-applikation. De to dimensioner supplerer hinanden.

Endelig er capability thresholds ikke statiske. Efterhånden som AI-teknologien udvikler sig, og mindre modeller opnår evner, der tidligere var forbeholdt de største systemer, vil grænserne blive justeret. Det er en løbende kalibrering mellem teknologisk udvikling og regulatorisk respons.

Relaterede termer

Frontier Model: De mest avancerede AI-modeller, der typisk defineres af at overskride capability thresholds for beregningskraft og evner.

AI Governance: Den overordnede ramme for styring, politikker og kontroller, der sikrer ansvarlig brug af AI i en organisation.

EU AI Act: EUs regulering af AI-systemer, der bl.a. bruger capability thresholds til at klassificere general-purpose AI-modeller med systemisk risiko.

Red Teaming for AI: Systematisk testmetode, der bruges til at evaluere, om en model har krydset farlige capability thresholds.

Guardrails: Tekniske og organisatoriske sikkerhedsforanstaltninger, der implementeres, når en model opererer over et givent capability threshold.

AI Risk Management: Den bredere disciplin for at identificere, vurdere og mitigere risici ved AI-systemer, hvor capability thresholds er et centralt input.

AI Compliance: Det praktiske arbejde med at overholde regulatoriske krav, herunder dem der udløses af capability thresholds.