Skip to content
AI Ordbog / Gemma (Google open-weight-model)

Gemma (Google open-weight-model)

Gemma er Googles familie af open-weight AI-modeller. Forstå hvad Gemma kan, hvordan den adskiller sig fra lukkede modeller, og hvornår den giver mening for din virksomhed.

Gemma (Google open-weight-model)
Frame 4
Frame 3
Frame 2
Frame 1
Frame 5
Gemma (Google open-weight-model)
AI ORDBOG

Hvordan virker Gemma?

Gemma er en open-weight model, hvilket betyder, at modellens vægte er offentligt tilgængelige. Det adskiller sig fra lukkede modeller som GPT-4 og Gemini, hvor man kun kan tilgå modellen via en API. Med Gemma kan udviklere downloade modellen, køre den på egen hardware og tilpasse den til specifikke opgaver via fine-tuning.

Den nyeste version, Gemma 4 (april 2026), fås i fire størrelser: E2B, E4B, 26B (Mixture of Experts) og 31B Dense. De mindre modeller er designet til at køre på enheder med begrænsede ressourcer, mens de større konkurrerer direkte med de bedste open-weight modeller på markedet. Gemma 4 31B rangerer som nummer tre på Arena AI-leaderboardet for open-modeller.

Gemma 4 er nativt multimodal: den kan behandle tekst, billeder, video og lyd. Den understøtter kontekstvinduer på op til 256K tokens, hvilket gør den velegnet til opgaver, der kræver behandling af store dokumenter eller lange samtaler. Modellen understøtter over 140 sprog og har indbygget support for function calling, struktureret JSON-output og systeminstruktioner.

Arkitektonisk bygger Gemma på Google DeepMinds forskning i effektive transformer-modeller. De mindre varianter bruger Mixture of Experts (MoE)-arkitektur, som aktiverer kun en del af modellens parametre for hver forespørgsel. Det giver høj performance med lavere beregningsomkostninger.

Gemma i erhvervslivet

Gemma er særligt relevant for virksomheder, der har brug for AI, men ikke vil sende følsomme data gennem en ekstern API. Ved at køre Gemma on-premise eller i en privat cloud bevarer organisationen fuld kontrol over data, hvilket er afgørende i regulerede brancher som finans, sundhed og det offentlige.

En af de mest udbredte anvendelser er interne videnssystemer. Virksomheder kan fine-tune Gemma på deres egen dokumentation og bygge en RAG-pipeline, der besvarer medarbejdernes spørgsmål baseret på interne politikker, kontrakter og manualer. Fordi modellen kører lokalt, forlader data aldrig virksomhedens infrastruktur.

Gemma 4 er også velegnet til agentic workflows: den kan fungere som kernen i en AI-agent, der læser e-mails, ekstraherer opgaver, planlægger møder og genererer rapporter. Med indbygget function calling og struktureret output kan den integreres direkte i eksisterende forretningsprocesser.

For udviklingsteams tilbyder Gemma en lokal AI-kodningsassistent, der kan generere og refaktorere kode uden at sende proprietær kode til en ekstern tjeneste. Det er relevant for virksomheder med strenge IP-politikker eller compliance-krav.

Økonomisk kan Gemma reducere afhængigheden af dyre API-baserede arkitekturer. Når en virksomhed kører sin egen model, betaler den for compute frem for per token, hvilket ofte er billigere ved høje volumener.

Hvad Gemma ikke er

Gemma er ikke det samme som Gemini. Gemini er Googles lukkede, kommercielle AI-model, der tilgås via API og Google Cloud. Gemma deler forskningsmæssigt fundament med Gemini, men er en separat modelfamilie designet til at blive downloadet og kørt lokalt. Gemma er typisk mindre og mere specialiseret, mens Gemini er en bredere, mere kraftfuld model.

Gemma er heller ikke en komplet AI-platform. Det er en sprogmodel, som virksomheden selv skal integrere i sin infrastruktur. Det kræver teknisk kompetence at fine-tune, deploye og vedligeholde modellen. For organisationer uden dedikerede ML-teams kan det være mere hensigtsmæssigt at starte med en API-baseret løsning og gradvist bevæge sig mod en open-weight tilgang.

Det er også vigtigt at forstå, at "open-weight" ikke er det samme som "open-source" i traditionel forstand. Modellens vægte er åbne, men træningsdata og den fulde træningsproces er ikke offentliggjort. Med Gemma 4s skift til Apache 2.0-licens er de kommercielle begrænsninger dog fjernet, hvilket giver virksomheder fuld frihed til at bruge og modificere modellen.

Relaterede termer

Foundation Model (Fundamentmodel): Den brede kategori af store, fortrænede AI-modeller, som Gemma tilhører. Foundation models trænes på massive datamængder og kan tilpasses til specifikke opgaver.

LLM (Large Language Model): Sprogmodeller som Gemma, der er trænet til at forstå og generere tekst. Gemma er en LLM, men med multimodale evner i de nyeste versioner.

Open-source AI: Bevægelsen mod åbne AI-modeller, som virksomheder kan downloade, tilpasse og deploye frit. Gemma er et af de mest fremtrædende eksempler.

Fine-tuning: Processen med at tilpasse en pretrænet model som Gemma til specifikke opgaver eller domæner ved at træne den videre på virksomhedens egne data.

Mixture of Experts (MoE): Den arkitektur, som Gemma 4 26B bruger til at opnå høj performance med færre aktive parametre per forespørgsel.

On-premise AI: Deployment af AI-modeller på virksomhedens egen infrastruktur, hvilket Gemma er særligt velegnet til.