Google DeepMind har netop frigivet Gemma 4, en familie af open source AI-modeller under Apache 2.0-licens. Den største variant på 31 milliarder parametre placerer sig som nummer tre på Arena AI's tekstleaderboard og udkonkurrerer lukkede modeller, der er op til 13 gange større.
Timingen er bemærkelsesværdig. Bare seks dage efter Gemma 4-lanceringen den 2. april 2026, annoncerede Meta sin nye Muse Spark-model, som er fuldstændig lukket og proprietær. Det markerer et brud med Metas hidtidige open source-strategi med Llama-modellerne. For danske virksomheder, der overvejer on-prem AI, tegner der sig nu et klart valg: åben eller lukket infrastruktur.
Gemma 4 er bygget på samme forskning og teknologi som Googles grundmodel Gemini 3, men distribueres frit under Apache 2.0-licensen. Det betyder fuld kommerciel frihed uden royalties, restriktioner på modificering eller krav om at dele ændringer. Modelfamilien omfatter fire varianter: E2B (2B parametre), E4B (4B parametre), 26B MoE (Mixture of Experts) og 31B Dense. Alle understøtter kontekstvinduer op til 256.000 tokens, native billedforståelse og lydbehandling samt over 140 sprog.
Det, der gør Gemma 4 strategisk interessant, er ikke kun ydelsen. Det er licensmodellen. Tidligere Gemma-versioner havde tilpassede licenser med begrænsninger, mens konkurrenter som Meta har bevæget sig i den stik modsatte retning. Med Muse Spark har Meta lanceret sin første helt proprietære AI-model, udviklet af det nye Meta Superintelligence Labs under ledelse af Alexandr Wang. Modellen tilbydes kun via API i privat preview til udvalgte partnere.
For virksomheder, der vil undgå leverandørlåsning, er forskellen afgørende. Apache 2.0 giver dig retten til at tilpasse, distribuere og bygge forretning på modellen uden at spørge Google om lov. Det er digital suverænitet i praksis.
Et ofte overset aspekt er multimodaliteten. Gemma 4 understøtter ikke kun tekst, men også billede- og lydinput på tværs af alle modelstørrelser. Det åbner for use cases som automatisk analyse af produktbilleder, kvalitetskontrol via kameraer i produktionslinjer og transskription af kundemøder. De kompakte E2B og E4B-varianter kan endda køre direkte på enheder som tablets og industrielle edge-computere, hvilket giver mulighed for AI-funktionalitet helt uden internetforbindelse.
For mange danske virksomheder er det ikke kun et spørgsmål om pris, men om kontrol. Når du bruger en lukket API-model som GPT-5 eller Muse Spark, forlader dine data virksomheden ved hvert eneste kald. Med en open source-model som Gemma 4 kan du køre hele inferensen lokalt. Ingen data krydser landegrænser, og du har fuld kontrol over, hvad modellen ser og producerer.
Det er særligt relevant med EU AI Act, der stiller nye krav til højrisiko-AI-systemer fra 2. august 2026. Når du selv hoster modellen, kan du dokumentere træningsdata, output-kvalitet og sikkerhedsforanstaltninger langt mere præcist end ved brug af en tredjeparts API. Det giver en direkte fordel i AI compliance. Du kan desuden implementere explainable AI-mekanismer, der gør det muligt at forklare, hvorfor modellen traf en given beslutning, hvilket er et krav for højrisiko-applikationer under AI Act.
Ifølge Dansk Erhverv bruger 70% af danske virksomheder allerede AI i en eller anden form. Men en ny rapport fra DI Digital viser, at 62% af danske industrivirksomheder endnu ikke er startet med AI. For den sidste gruppe kan en open source-model med Apache 2.0 sænke barrieren markant, fordi den fjerner licensomkostninger og giver fuld kontrol fra dag ét.
Sovereign Cloud-løsninger fra Google Cloud og NVIDIA gør det desuden muligt at køre Gemma 4 i europæiske datacentre med fuld GDPR-compliance. Det er AI-suverænitet i praksis: du ejer modellen, du ejer dataene, og du bestemmer, hvor det hele kører.
For virksomheder, der håndterer personfølsomme data inden for sundhed, finans eller offentlig forvaltning, er on-prem AI ikke blot en fordel, men en nødvendighed. Med Gemma 4 kan du bygge et AI-system, hvor data aldrig forlader jeres firewall, og hvor I har fuld auditspor over alle input og output. Det er præcis den type transparens, som både kunder og tilsynsmyndigheder i stigende grad forventer.
Konteksten bliver endnu tydeligere, når man sammenligner med Metas seneste strategi. Hvor Llama-modellerne var tilgængelige som open-weight modeller (med visse begrænsninger), er Muse Spark udelukkende tilgængelig via privat API. For en dansk virksomhed, der har bygget workflows oven på Llama, betyder det pludselig en afhængighed af Metas beslutninger om adgang og prissætning. Gemma 4 under Apache 2.0 eliminerer den risiko helt.
En af de mest konkrete fordele ved open source AI er økonomien. Når du kalder en lukket API, betaler du pr. token, og omkostningerne vokser lineært med forbruget. Ved høje volumener kan det hurtigt blive en betydelig driftsudgift. Med Gemma 4 on-prem er investeringen primært i hardware og opsætning, mens selve inferensen er gratis.
Break even-punktet afhænger af jeres konkrete forbrug. En virksomhed, der laver tusindvis af daglige API-kald til kundeservice, produktbeskrivelser eller intern vidensøgning, kan typisk tjene hardwareinvesteringen hjem inden for 6 til 12 måneder. Gemma 4's kompakte modelstørrelser gør det desuden muligt at køre flere instanser på samme hardware, hvilket forbedrer gennemløbet.
NVIDIA har lanceret optimeret RTX-acceleration specifikt til Gemma 4, og NVIDIA NIM (Inference Microservices) gør det muligt at pakke modellen som en produktionsklar container med få kommandoer. Det reducerer tiden fra download til implementering drastisk, og kvantisering kan yderligere sænke hardwarekravene med minimal ydelsestab.
For virksomheder med varierende belastning kan en hybrid tilgang give mening: kør basis-inferens on-prem med Gemma 4 og brug en cloud-API som fallback ved spidsbelastning. Sådan får du det bedste fra begge verdener uden at binde al kapital i hardware.
Det er vigtigt at medregne de skjulte omkostninger ved self-hosting: intern kompetence til drift og vedligeholdelse, GPU-strømforbrug og nedkøling samt tid til opdatering, når nye modelversioner udgives. For virksomheder med 50 til 200 ansatte kan det være mere realistisk at starte på Google Cloud med Gemma 4 som managed service og først flytte on-prem, når forbruget retfærdiggør investeringen. Større virksomheder med eksisterende GPU-infrastruktur har naturligvis en kortere vej til break even.
Gemma 4 er ikke bare en tekstmodel. Alle varianter understøtter native function calling (tool calling), struktureret JSON-output og agentic arbejdsgange. Det betyder, at du kan bygge AI-agenter, der selvstændigt kalder eksterne systemer, henter data fra databaser og udfører handlinger baseret på brugerens instruktioner.
Ifølge Google Developers Blog scorer Gemma 4 på niveau med langt større modeller i benchmarks for agentic kapabiliteter. De kompakte E2B og E4B-varianter er specifikt designet til edge-implementering, hvor de kan fungere som lokale agenter på enheder uden internetforbindelse. Det åbner for use cases inden for produktion, logistik og feltsalg, hvor connectivity er begrænset.
Integration med Model Context Protocol (MCP) og andre åbne protokoller gør det desuden muligt at forbinde Gemma 4 med jeres eksisterende værktøjer og datakilder. I stedet for at sende data til en ekstern API kan agenten arbejde direkte med jeres CRM, ERP eller andre interne systemer. Det er særligt interessant for virksomheder, der allerede har investeret i multi-agent-systemer eller overvejer at gøre det.
Gemma 4's kontekstvindue på op til 256.000 tokens er en væsentlig fordel for agentic use cases. Det svarer til, at modellen kan holde styr på omkring 500 sider tekst i en enkelt session. For en AI-agent, der skal gennemgå kontrakter, analysere rapporter eller koordinere på tværs af flere systemer, er et langt kontekstvindue afgørende for kvaliteten af output.
Et konkret eksempel: forestil dig en intern kundeservice-agent, der modtager en forespørgsel, slår kunden op i jeres CRM, henter relevante dokumenter fra jeres vidensbase og formulerer et svar. Med en lukket API sendes alle disse data til en ekstern server. Med Gemma 4 on-prem forbliver alt internt, og agenten kan tilpasses præcis til jeres processer via fine-tuning og prompt engineering. Det er forskellen mellem at leje en generisk løsning og at eje en skræddersyet.
Hvis Gemma 4 lyder relevant for jeres organisation, er den mest pragmatiske tilgang at starte med en fokuseret Proof of Concept (PoC). Vælg én konkret use case, hvor I i dag bruger en lukket API eller manuelt arbejde, og test Gemma 4 mod den eksisterende løsning. Kundeservice-svar, intern vidensøgning og dokumentopsummering er gode startpunkter, fordi de er lette at måle.
Til hardwaresiden kræver 31B Dense-modellen minimum én NVIDIA A100 eller H100 GPU med tilstrækkelig VRAM. De mindre varianter (E2B, E4B) kan køre på forbrugerhardware med en enkelt gaming-GPU, hvilket gør dem velegnede til hurtige prototyper og interne demonstrationer. Google Cloud tilbyder Gemma 4 som managed service via Vertex AI, så I kan teste uden at investere i egne servere først. Hugging Face og NVIDIA NIM giver alternative deployment-veje med optimerede containers.
Vær opmærksom på begrænsningerne. Open source betyder ikke fejlfri. Du skal selv stå for sikkerhedsopdateringer, og der er ingen leverandørsupport at ringe til, hvis noget går galt. Gemma 4 kan stadig producere hallucinationer, og du er selv ansvarlig for at implementere guardrails og kvalitetskontrol. Til gengæld har du fuld adgang til modellens vægte og arkitektur, hvilket giver mulighed for fine-tuning på jeres domænespecifikke data og implementering præcis som det passer jeres setup.
En realistisk tidsplan for en PoC ser typisk sådan ud: to til tre uger til at vælge use case og forberede data, en til to uger til opsætning og initial test, og derefter fire til seks uger med måling af resultater sammenlignet med jeres nuværende løsning. Undervejs bør I involvere både de tekniske ressourcer, der skal drifte løsningen, og de forretningsansvarlige, der skal vurdere værdien. En AI-roadmap hjælper med at sætte PoC'en i kontekst af jeres bredere digitale strategi, så den ikke ender som et isoleret eksperiment.
Gemma 4 repræsenterer et vendepunkt for open source AI i Europa. For første gang kan en frit tilgængelig model under Apache 2.0 reelt konkurrere med de bedste lukkede alternativer på tværs af tekst, billede og lyd. Kombineret med Metas drejning væk fra open source giver det danske virksomheder en klar strategisk mulighed: tag kontrol over jeres AI-infrastruktur nu, mens licensbetingelserne er de mest favorable, markedet har set. Uanset om I starter med en PoC i skyen eller en on-prem pilot, er Gemma 4 det stærkeste udgangspunkt for virksomheder, der vil eje deres AI i stedet for at leje den.