GPAI (General-Purpose AI Model)
GPAI (General-Purpose AI Model) er den juridiske betegnelse i EU AI Act for AI-modeller, der kan udføre et bredt spektrum af opgaver. Hvor specialiserede AI-modeller er bygget til én bestemt funktion, er en GPAI-model trænet til at håndtere mange forskellige typer opgaver og kan integreres i en lang række downstream-systemer og applikationer. GPT-4, Claude og Gemini er alle eksempler på GPAI-modeller.
Betegnelsen er central, fordi den afgør, hvilke forpligtelser der gælder for udbydere af AI-modeller under EU AI Act. Hvis din virksomhed udvikler, tilpasser eller distribuerer en GPAI-model, er der specifikke krav til dokumentation, transparens og ophavsretspolitik, som skal overholdes.
For virksomheder, der bruger GPAI-modeller som led i deres produkter eller tjenester, er det afgørende at forstå klassificeringen, fordi den har direkte indflydelse på compliance-forpligtelser og risikostyring.
Hvad kendetegner en GPAI-model?
En GPAI-model er ifølge EU AI Act en AI-model, der udviser betydelig generalitet og er i stand til kompetent at udføre en bred vifte af forskellige opgaver, uanset hvordan modellen bringes på markedet. Det er netop bredden i anvendelsen, der adskiller en GPAI-model fra en specialiseret model, der kun kan løse én bestemt opgave som f.eks. billedgenkendelse eller svindeldetektering.
Europa-Kommissionen har fastlagt en teknisk tærskel: modeller trænet med mere end 10²³ FLOP (floating point operations) og som kan generere tekst, billeder eller video, formodes at være GPAI-modeller. Men tærsklen er ikke absolut. En model kan overstige grænsen uden at være GPAI, hvis den kun løser snævre opgaver. Omvendt kan en model under tærsklen stadig kvalificere sig, hvis den demonstrerer tilstrækkelig generalitet.
GPAI-modeller med systemisk risiko udgør en særlig underkategori. Modeller trænet med mere end 10²⁵ FLOP klassificeres automatisk som systemisk risikable, hvilket udløser strengere krav til evaluering, adversarial testing, hændelsesrapportering og cybersikkerhed. Udbydere kan dog argumentere for, at deres model trods den høje beregningskraft ikke udgør systemisk risiko.
Det er værd at bemærke, at GPAI og Foundation Model ofte bruges synonymt. GPAI er den juridiske betegnelse i EU AI Act, mens foundation model er den tekniske betegnelse fra AI-forskningen. I praksis dækker de stort set det samme: store, generelle modeller, der kan tilpasses til mange formål.
Consile rådgiver om GPAI-compliance og hjælper virksomheder med at navigere EU AI Acts krav til AI-modeller. Kontakt os for en uforpligtende vurdering af jeres forpligtelser.
GPAI-krav og hvad de betyder for virksomheder
Reglerne for GPAI-modeller trådte i kraft den 2. august 2025, og fra august 2026 har EU AI Office fuld håndhævelseskompetence. Det betyder, at virksomheder, der udvikler eller distribuerer GPAI-modeller, allerede nu skal have deres compliance-setup på plads.
Udbydere af GPAI-modeller skal leve op til fire kernekrav: De skal udarbejde teknisk dokumentation, der giver downstream-udbydere indsigt i modellens kapabiliteter og begrænsninger. De skal implementere en politik for overholdelse af EU-ophavsret. De skal offentliggøre en detaljeret opsummering af det træningsdata, modellen er bygget på. Og de skal gøre denne dokumentation tilgængelig via EU SEND-platformen.
For virksomheder, der ikke selv udvikler GPAI-modeller, men integrerer dem i deres produkter eller services, handler det primært om at forstå ansvarsfordelingen. Hvis du bygger et AI Agent-system oven på en GPAI-model, har modeludbyderen ansvar for modellens grundlæggende compliance, mens du som deployer har ansvar for, hvordan systemet bruges i praksis.
Open source-modeller har en delvis undtagelse: De er fritaget for de fleste GPAI-krav, medmindre de klassificeres som systemisk risikable. Det gør open source til et attraktivt valg for mange virksomheder, men fjerner ikke behovet for AI Governance i den måde, modellen anvendes på.
GPAI Code of Practice er et frivilligt compliance-værktøj, som udbydere kan følge for at demonstrere overholdelse. Det er ikke lovpligtigt, men giver en struktureret ramme, der i praksis fungerer som branchens bedste bud på, hvordan man lever op til kravene.
Hvad GPAI ikke er
GPAI er ikke det samme som Generativ AI, selvom begreberne overlapper. Generativ AI beskriver en teknisk kapabilitet (at generere nyt indhold), mens GPAI er en juridisk klassificering (en model med bred anvendelse). En GPAI-model er typisk generativ, men ikke al generativ AI er nødvendigvis klassificeret som GPAI under EU AI Act.
GPAI er heller ikke en risikokategori i sig selv. EU AI Act opererer med fire risikoniveauer for AI-systemer (uacceptabel, høj, begrænset og minimal risiko), men GPAI-modeller har deres eget separate regelsæt i lovens kapitel V. Systemisk risiko for GPAI-modeller handler om modellens potentielle samfundsmæssige indvirkning, ikke om det specifikke brugsscenarie.
Endelig er GPAI ikke kun relevant for de store tech-virksomheder. Enhver virksomhed, der modificerer, fine-tuner eller distribuerer en GPAI-model under eget navn, kan potentielt blive betragtet som udbyder og dermed være underlagt GPAI-forpligtelserne. Det gælder også danske virksomheder, der tilpasser modeller til specifikke forretningsformål.
Relaterede termer
En Foundation Model er en stor, pretrænet AI-model som GPT eller Claude. Forstå hvad de er, og hvordan virksomheder bruger dem.
EU AI Act er den første omfattende AI-lovgivning i verden. Forstå kravene, risikokategorierne og hvad det betyder for danske virksomheder.
AI Governance er den organisatoriske ramme for ansvarlig AI-brug. Forstå hvad det indebærer og hvorfor det er afgørende for din virksomhed.
AI Compliance dækker de processer og systemer, virksomheder skal have på plads for at overholde AI-regulering som EU AI Act. Forstå kravene og kom i gang.
En LLM er en stor sprogmodel som GPT eller Claude, der forstår og genererer tekst. Lær hvad LLM'er er, og hvordan de bruges i virksomheder.
Fine-tuning tilpasser en AI-model til et specifikt domæne. Lær hvornår fine-tuning er det rigtige valg fremfor RAG.
Ansvarlig AI handler om at udvikle og bruge AI-systemer, der er retfærdige, gennemsigtige og sikre. Forstå principperne og praksis.
AI Risk Management handler om at identificere, vurdere og håndtere risici ved AI-systemer. Lær frameworks, best practices og krav fra EU AI Act.
Ofte stillede spørgsmål om GPAI
Er min virksomhed forpligtet under GPAI-reglerne, hvis vi bare bruger ChatGPT?+
Nej, ikke under GPAI-reglerne specifikt. GPAI-forpligtelserne gælder for udbydere af modellerne, ikke slutbrugere. Hvis I udelukkende bruger en GPAI-model via en tredjeparts API, er det modeludbyderen (f.eks. OpenAI), der bærer GPAI-compliance-ansvaret. I har dog stadig ansvar for, hvordan I bruger AI-systemet i jeres organisation.
Hvad sker der, hvis vi fine-tuner en GPAI-model og sælger den videre?+
Så kan I potentielt blive betragtet som udbyder af en GPAI-model og dermed være underlagt de tilhørende forpligtelser. Det afhænger af, hvor omfattende tilpasningen er, og om modellen distribueres under jeres navn. Consile hjælper med at afklare, hvor grænsen går for jeres specifikke setup.
Hvad er forskellen på GPAI og foundation model?+
I praksis dækker de to termer det samme: store AI-modeller trænet på massive datamængder, der kan bruges til mange formål. GPAI er den juridiske term, som EU AI Act anvender, mens foundation model er forsknings- og branchens foretrukne betegnelse. Forskellen er kontekstuel, ikke teknisk.