Lorem ipsum dolor sit amet, consectetur adipiscing elit. Ut faucibus enim mauris, vel dignissim...
En LLM er en stor sprogmodel som GPT eller Claude, der forstår og genererer tekst. Lær hvad LLM'er er, og hvordan de bruges i virksomheder.


En LLM er bygget på en transformer-arkitektur og er trænet til at forudsige det næste ord i en sekvens. Under træningen har modellen set milliarder af tekster fra bøger, artikler, websites og kode. Den har lært statistiske sammenhænge mellem ord, sætninger og begreber.
Når du giver en LLM et prompt (en instruktion eller et spørgsmål), genererer den et svar ord for ord. Hvert ord vælges baseret på sandsynlighed givet konteksten. Konteksten er begrænset af modellens context window, altså hvor meget tekst den kan holde i arbejdshukommelsen ad gangen.
Modellen forstår ikke tekst som et menneske. Den er ekstremt god til at producere sandsynlige svar, men det er også grunden til, at den nogle gange hallucinerer, altså genererer svar der lyder korrekte men er faktuelt forkerte.
Intern vidensassistent: En LLM kombineret med RAG kan besvare medarbejderspørgsmål baseret på virksomhedens egne dokumenter, politikker og processer.
Content og kommunikation: Udkast til emails, rapporter, produktbeskrivelser og præsentationer.
Kodeassistance: Udviklere bruger LLM'er til at skrive, forklare og debugge kode.
Kundesupport: AI-assistenter, der håndterer første niveau af henvendelser og eskalerer komplekse sager.
Dataanalyse: Oversættelse af naturligt sprog til SQL-forespørgsler, så ikke-tekniske medarbejdere kan trække rapporter.
AI Agents: LLM'er fungerer som hjernen i AI-agenter, der kan planlægge og udføre handlinger på tværs af systemer.
GPT-4 og GPT-4o (OpenAI): Drevet af Microsoft. Bredt udbredt via ChatGPT og Azure OpenAI.
Claude (Anthropic): Kendt for lange context windows og fokus på sikkerhed.
Gemini (Google): Integreret i Google Workspace og Google Cloud.
Mistral og Llama (open-source): Modeller, der kan hostes on-premise for virksomheder med strenge datakrav.
Valget af LLM afhænger af use case, datapolitik, budget og integrationsbehov.
Generativ AI (GenAI): Den overordnede kategori af AI, der skaber indhold. Foundation Model: LLM'er er en type foundation model. Prompt Engineering: Teknikken til at formulere effektive instruktioner til LLM'er. Context Window: Den mængde tekst, en LLM kan behandle ad gangen. Fine-tuning: Tilpasning af en LLM til et specifikt domæne. RAG: Teknik til at give LLM'er adgang til ekstern viden. Hallucinationer: Når LLM'er genererer faktuelt forkerte svar.