Mistral AI lancerede i dag det nye orkestreringslag Workflows, som skal gøre AI-agenter...
Llama er Metas serie af open-weight AI-modeller. Forstå hvad Llama kan, hvordan den adskiller sig fra lukkede modeller, og hvad det betyder for din virksomhed.


Llama-familien er bygget som transformer-baserede sprogmodeller, der er trænet på massive tekstdatasæt. Det, der adskiller Llama fra lukkede modeller som GPT og Claude, er at Meta udgiver modelvægtene offentligt. Det giver udviklere og virksomheder mulighed for at køre modellerne lokalt, tilpasse dem via fine-tuning og integrere dem direkte i egne systemer.
Den nyeste generation, Llama 4, kommer i flere varianter. Llama 4 Scout har 17 milliarder aktive parametre fordelt på 16 eksperter og tilbyder et kontekstvindue på op til 10 millioner tokens, det største blandt open-weight-modeller. Llama 4 Maverick bruger 128 eksperter og leverer resultater, der matcher lukkede modeller som GPT-4o på tværs af kodning, ræsonnering og multimodal forståelse.
En vigtig arkitektonisk nyskabelse i Llama 4 er brugen af Mixture of Experts. I stedet for at aktivere alle parametre ved hvert input, aktiverer modellen kun de mest relevante eksperter. Det giver bedre ydeevne med lavere beregningsomkostninger, hvilket er afgørende for virksomheder, der ønsker at holde inferensomkostningerne nede.
Llama 4 er desuden nativt multimodal. Modellerne kan forstå både tekst og billeder i samme forespørgsel, uden at det kræver separate pipelines eller add-ons. Det åbner for use cases som dokumentforståelse, visuel kundesupport og analyse af billedmateriale.
Llamas open-weight-tilgang giver virksomheder tre fundamentale fordele: datakontrol, omkostningsstyring og tilpasning. I stedet for at sende følsomme data til en ekstern API kan Llama køres on-premise eller i en privat cloud, hvilket er afgørende for brancher med strenge krav til data privacy som finans, sundhed og forsvar.
Omkostningsstrukturen er anderledes end ved lukkede modeller. Med Llama betaler virksomheden for compute-ressourcer i stedet for per-token-priser. Ved høje volumener kan det reducere de løbende omkostninger markant. Kombineret med teknikker som model quantization kan Llama køres effektivt selv på begrænset hardware.
I praksis bruger virksomheder Llama til interne vidensassistenter, der besvarer medarbejderspørgsmål baseret på virksomhedens egen dokumentation. Kundesupportteams anvender Llama til at klassificere og besvare henvendelser med kontekst fra produktkataloger og supporthistorik. Udviklingsafdelinger bruger modellen til kodegenerering, code review og teknisk dokumentation.
Med Llama 4 Scouts kontekstvindue på 10 millioner tokens kan virksomheder fodre hele kodebaser, lovsamlinger eller forskningsarkiver ind i en enkelt session og få præcise svar med reference til kilden. Det er en kapacitet, der tidligere krævede komplekse RAG-pipelines.
Llama er ikke open source i den klassiske forstand. Open Source Initiative har gentagne gange påpeget, at Metas licens ikke opfylder definitionen af open source, fordi den indeholder begrænsninger. Virksomheder med over 700 millioner månedlige aktive brugere skal have Metas tilladelse, og der gælder en acceptable use policy, der forbyder visse anvendelser. Den korrekte betegnelse er open-weight: modelvægtene er tilgængelige, men de juridiske friheder er begrænsede sammenlignet med ægte open source-software.
Llama er heller ikke en plug-and-play-løsning. At køre en Llama-model i produktion kræver infrastruktur, DevOps-kompetencer og løbende vedligeholdelse. Det er ikke som at tilmelde sig en API-tjeneste. Til gengæld giver det fuld kontrol, hvilket mange virksomheder prioriterer højere end bekvemmelighed.
Endelig er Llama ikke nødvendigvis den bedste model til alle opgaver. De nyeste lukkede modeller som Claude Opus 4.6 og GPT-5 scorer typisk højere på de mest krævende benchmarks. Llamas styrke ligger i kombinationen af stærk ydeevne, tilpasningsmuligheder og kontrol over data og infrastruktur.
LLM (Large Language Model): Den overordnede kategori af store sprogmodeller, som Llama tilhører.
Foundation Model: Basismodeller trænet på massive datasæt, som Llama er et eksempel på.
Open-source AI: Bevægelsen mod åbent tilgængelige AI-modeller og værktøjer.
Fine-tuning: Tilpasning af en præ-trænet model til specifikke opgaver eller domæner.
Mixture of Experts (MoE): Arkitekturen, som Llama 4 bruger til effektiv parameterudnyttelse.
On-premise AI: Kørsel af AI-modeller på virksomhedens egen infrastruktur.
Inference: Processen hvor en trænet model genererer output baseret på input.