Gemma (Google open-weight-model)
Gemma er Googles familie af open-weight sprogmodeller, bygget på samme forskning og teknologi som de lukkede Gemini-modeller. Navnet kommer fra det latinske ord for ædelsten, og modellerne lever op til det: de leverer stærk performance i en kompakt størrelse, som virksomheder kan køre lokalt, tilpasse og integrere uden afhængighed af en ekstern API.
For virksomheder, der vil bruge AI uden at sende følsomme data til tredjepart, er Gemma et af de mest relevante valg på markedet. Modellerne er tilgængelige under Apache 2.0-licens, hvilket giver fuld kommerciel frihed til at tilpasse, distribuere og bygge produkter oven på dem.
Gemma repræsenterer et strategisk skifte fra Google: i stedet for kun at tilbyde AI som en cloudtjeneste, giver de nu virksomheder mulighed for at eje og kontrollere deres egne AI-modeller.
Hvordan virker Gemma?
Gemma er en open-weight model, hvilket betyder, at modellens vægte er offentligt tilgængelige. Det adskiller sig fra lukkede modeller som GPT-4 og Gemini, hvor man kun kan tilgå modellen via en API. Med Gemma kan udviklere downloade modellen, køre den på egen hardware og tilpasse den til specifikke opgaver via fine-tuning.
Den nyeste version, Gemma 4 (april 2026), fås i fire størrelser: E2B, E4B, 26B (Mixture of Experts) og 31B Dense. De mindre modeller er designet til at køre på enheder med begrænsede ressourcer, mens de større konkurrerer direkte med de bedste open-weight modeller på markedet. Gemma 4 31B rangerer som nummer tre på Arena AI-leaderboardet for open-modeller.
Gemma 4 er nativt multimodal: den kan behandle tekst, billeder, video og lyd. Den understøtter kontekstvinduer på op til 256K tokens, hvilket gør den velegnet til opgaver, der kræver behandling af store dokumenter eller lange samtaler. Modellen understøtter over 140 sprog og har indbygget support for function calling, struktureret JSON-output og systeminstruktioner.
Arkitektonisk bygger Gemma på Google DeepMinds forskning i effektive transformer-modeller. De mindre varianter bruger Mixture of Experts (MoE)-arkitektur, som aktiverer kun en del af modellens parametre for hver forespørgsel. Det giver høj performance med lavere beregningsomkostninger.
Consile hjælper virksomheder med at vælge, fine-tune og deploye open-weight modeller som Gemma. Kontakt os for en uforpligtende vurdering af, om Gemma er det rette valg for jeres AI-strategi.
Gemma i erhvervslivet
Gemma er særligt relevant for virksomheder, der har brug for AI, men ikke vil sende følsomme data gennem en ekstern API. Ved at køre Gemma on-premise eller i en privat cloud bevarer organisationen fuld kontrol over data, hvilket er afgørende i regulerede brancher som finans, sundhed og det offentlige.
En af de mest udbredte anvendelser er interne videnssystemer. Virksomheder kan fine-tune Gemma på deres egen dokumentation og bygge en RAG-pipeline, der besvarer medarbejdernes spørgsmål baseret på interne politikker, kontrakter og manualer. Fordi modellen kører lokalt, forlader data aldrig virksomhedens infrastruktur.
Gemma 4 er også velegnet til agentic workflows: den kan fungere som kernen i en AI-agent, der læser e-mails, ekstraherer opgaver, planlægger møder og genererer rapporter. Med indbygget function calling og struktureret output kan den integreres direkte i eksisterende forretningsprocesser.
For udviklingsteams tilbyder Gemma en lokal AI-kodningsassistent, der kan generere og refaktorere kode uden at sende proprietær kode til en ekstern tjeneste. Det er relevant for virksomheder med strenge IP-politikker eller compliance-krav.
Økonomisk kan Gemma reducere afhængigheden af dyre API-baserede arkitekturer. Når en virksomhed kører sin egen model, betaler den for compute frem for per token, hvilket ofte er billigere ved høje volumener.
Hvad Gemma ikke er
Gemma er ikke det samme som Gemini. Gemini er Googles lukkede, kommercielle AI-model, der tilgås via API og Google Cloud. Gemma deler forskningsmæssigt fundament med Gemini, men er en separat modelfamilie designet til at blive downloadet og kørt lokalt. Gemma er typisk mindre og mere specialiseret, mens Gemini er en bredere, mere kraftfuld model.
Gemma er heller ikke en komplet AI-platform. Det er en sprogmodel, som virksomheden selv skal integrere i sin infrastruktur. Det kræver teknisk kompetence at fine-tune, deploye og vedligeholde modellen. For organisationer uden dedikerede ML-teams kan det være mere hensigtsmæssigt at starte med en API-baseret løsning og gradvist bevæge sig mod en open-weight tilgang.
Det er også vigtigt at forstå, at "open-weight" ikke er det samme som "open-source" i traditionel forstand. Modellens vægte er åbne, men træningsdata og den fulde træningsproces er ikke offentliggjort. Med Gemma 4s skift til Apache 2.0-licens er de kommercielle begrænsninger dog fjernet, hvilket giver virksomheder fuld frihed til at bruge og modificere modellen.
Relaterede termer
Open-source AI giver virksomheder adgang til AI-modeller, de selv kan tilpasse og hoste. Forstå fordele, risici og hvornår open source er det rette valg.
Fine-tuning tilpasser en AI-model til et specifikt domæne. Lær hvornår fine-tuning er det rigtige valg fremfor RAG.
Mixture of Experts (MoE) er arkitekturen bag de mest avancerede AI-modeller. Forstå hvordan MoE gør AI hurtigere og billigere for virksomheder.
On-premise AI giver virksomheder fuld kontrol over data, modeller og compliance. Forstå fordele, begrænsninger og hvornår on-prem er det rette valg.
Ofte stillede spørgsmål om Gemma
Hvad er forskellen på Gemma og Gemini?+
Gemini er Googles lukkede, kommercielle AI-model, som tilgås via API. Gemma er en separat familie af open-weight-modeller, der kan downloades og køres lokalt. De deler forskningsmæssigt fundament, men Gemma er designet til lokal deployment og tilpasning, mens Gemini er en bredere cloudtjeneste.
Kan min virksomhed bruge Gemma kommercielt?+
Ja. Gemma 4 er frigivet under Apache 2.0-licens, som giver fuld kommerciel frihed. I kan fine-tune, deploye og bygge produkter oven på Gemma uden licensbegrænsninger. Tidligere versioner havde visse restriktioner, men de er fjernet med Gemma 4.
Kræver Gemma meget teknisk kapacitet at køre?+
Det afhænger af modelstørrelsen. De mindste Gemma-modeller (E2B og E4B) kan køre på en bærbar computer eller mobilenhed. De større modeller kræver GPU-infrastruktur. Consile hjælper med at vurdere, hvilken modelstørrelse og deployment-strategi der passer til jeres behov og ressourcer.