OpenAI lukkede sin videogenereringsplatform Sora den 25. marts 2026 efter estimerede $15 millioner...

En GPAI-model er ifølge EU AI Act en AI-model, der udviser betydelig generalitet og er i stand til kompetent at udføre en bred vifte af forskellige opgaver, uanset hvordan modellen bringes på markedet. Det er netop bredden i anvendelsen, der adskiller en GPAI-model fra en specialiseret model, der kun kan løse én bestemt opgave som f.eks. billedgenkendelse eller svindeldetektering.
Europa-Kommissionen har fastlagt en teknisk tærskel: modeller trænet med mere end 10²³ FLOP (floating point operations) og som kan generere tekst, billeder eller video, formodes at være GPAI-modeller. Men tærsklen er ikke absolut. En model kan overstige grænsen uden at være GPAI, hvis den kun løser snævre opgaver. Omvendt kan en model under tærsklen stadig kvalificere sig, hvis den demonstrerer tilstrækkelig generalitet.
GPAI-modeller med systemisk risiko udgør en særlig underkategori. Modeller trænet med mere end 10²⁵ FLOP klassificeres automatisk som systemisk risikable, hvilket udløser strengere krav til evaluering, adversarial testing, hændelsesrapportering og cybersikkerhed. Udbydere kan dog argumentere for, at deres model trods den høje beregningskraft ikke udgør systemisk risiko.
Det er værd at bemærke, at GPAI og Foundation Model ofte bruges synonymt. GPAI er den juridiske betegnelse i EU AI Act, mens foundation model er den tekniske betegnelse fra AI-forskningen. I praksis dækker de stort set det samme: store, generelle modeller, der kan tilpasses til mange formål.
Reglerne for GPAI-modeller trådte i kraft den 2. august 2025, og fra august 2026 har EU AI Office fuld håndhævelseskompetence. Det betyder, at virksomheder, der udvikler eller distribuerer GPAI-modeller, allerede nu skal have deres compliance-setup på plads.
Udbydere af GPAI-modeller skal leve op til fire kernekrav: De skal udarbejde teknisk dokumentation, der giver downstream-udbydere indsigt i modellens kapabiliteter og begrænsninger. De skal implementere en politik for overholdelse af EU-ophavsret. De skal offentliggøre en detaljeret opsummering af det træningsdata, modellen er bygget på. Og de skal gøre denne dokumentation tilgængelig via EU SEND-platformen.
For virksomheder, der ikke selv udvikler GPAI-modeller, men integrerer dem i deres produkter eller services, handler det primært om at forstå ansvarsfordelingen. Hvis du bygger et AI Agent-system oven på en GPAI-model, har modeludbyderen ansvar for modellens grundlæggende compliance, mens du som deployer har ansvar for, hvordan systemet bruges i praksis.
Open source-modeller har en delvis undtagelse: De er fritaget for de fleste GPAI-krav, medmindre de klassificeres som systemisk risikable. Det gør open source til et attraktivt valg for mange virksomheder, men fjerner ikke behovet for AI Governance i den måde, modellen anvendes på.
GPAI Code of Practice er et frivilligt compliance-værktøj, som udbydere kan følge for at demonstrere overholdelse. Det er ikke lovpligtigt, men giver en struktureret ramme, der i praksis fungerer som branchens bedste bud på, hvordan man lever op til kravene.
GPAI er ikke det samme som Generativ AI, selvom begreberne overlapper. Generativ AI beskriver en teknisk kapabilitet (at generere nyt indhold), mens GPAI er en juridisk klassificering (en model med bred anvendelse). En GPAI-model er typisk generativ, men ikke al generativ AI er nødvendigvis klassificeret som GPAI under EU AI Act.
GPAI er heller ikke en risikokategori i sig selv. EU AI Act opererer med fire risikoniveauer for AI-systemer (uacceptabel, høj, begrænset og minimal risiko), men GPAI-modeller har deres eget separate regelsæt i lovens kapitel V. Systemisk risiko for GPAI-modeller handler om modellens potentielle samfundsmæssige indvirkning, ikke om det specifikke brugsscenarie.
Endelig er GPAI ikke kun relevant for de store tech-virksomheder. Enhver virksomhed, der modificerer, fine-tuner eller distribuerer en GPAI-model under eget navn, kan potentielt blive betragtet som udbyder og dermed være underlagt GPAI-forpligtelserne. Det gælder også danske virksomheder, der tilpasser modeller til specifikke forretningsformål.
Foundation Model: Den tekniske betegnelse for store, generelle AI-modeller. Bruges ofte synonymt med GPAI i praksis.
EU AI Act: Den europæiske lovgivningsramme, der definerer GPAI-klassificeringen og tilhørende forpligtelser.
AI Governance: Den organisatoriske ramme for styring og kontrol af AI-brug, som GPAI-reglerne stiller krav til.
AI Compliance: Processen med at sikre, at virksomhedens AI-systemer overholder gældende regulering, herunder GPAI-kravene.
LLM (Large Language Model): En type GPAI-model, der er specialiseret i sprogforståelse og tekstgenerering.
Fine-tuning: Processen med at tilpasse en GPAI-model til specifikke opgaver, hvilket kan udløse udbyderforpligtelser.
Ansvarlig AI: Det bredere principrammeværk for etisk og ansvarlig brug af AI, som GPAI-reglerne bygger oven på.
OpenAI lukkede sin videogenereringsplatform Sora den 25. marts 2026 efter estimerede $15 millioner...
En softwareingeniør i Stockholm bruger mere på LLM-tokens end hans arbejdsgiver betaler ham i løn....
Ollama har netop annonceret en markant hastighedsforøgelse for lokal AI på Apple Silicon, drevet af...