Google har scannet milliarder af offentligt tilgængelige hjemmesider og bekræfter nu det,...
DeepSeek er det kinesiske AI-laboratorium, der matcher vestlige frontiermodeller til en brøkdel af prisen. Forstå modellerne, risiciene og hvad det betyder for din virksomhed.


DeepSeek blev grundlagt i juli 2023 af Liang Wenfeng, der også står bag den kinesiske hedgefond High-Flyer. Selskabet er baseret i Hangzhou og har på kort tid opbygget et af verdens mest produktive AI-forskningslaboratorier.
Det tekniske fundament er en arkitektur kaldet Mixture of Experts (MoE). I stedet for at aktivere alle parametre ved hver forespørgsel, aktiverer modellen kun de mest relevante dele af netværket. Det giver høj ydeevne med lavere beregningsomkostninger. DeepSeek-V3 blev ifølge selskabet trænet for cirka 6 millioner dollars, mens sammenlignelige modeller fra OpenAI har kostet over 100 millioner dollars.
Modelfamilien omfatter flere generationer. DeepSeek-V3 er den generelle LLM, der konkurrerer direkte med GPT-4 og Claude. DeepSeek-R1 er en specialiseret reasoning-model, der rivaliserer med OpenAI o1 i matematik, kodning og logisk ræsonnering. R1 blev trænet med ren reinforcement learning uden supervised fine-tuning, hvilket var en bemærkelsesværdig teknisk bedrift.
I april 2026 lancerede DeepSeek V4 med et kontekstvindue på 1 million tokens og forbedrede agent-kapabiliteter. Til sammenligning understøttede V3 128.000 tokens. Det gør V4 velegnet til at arbejde med store dokumentsamlinger, komplekse kodebaser og langvarige samtaler.
Alle DeepSeeks kernemodeller er udgivet som open source, hvilket betyder at virksomheder kan downloade, køre og tilpasse dem lokalt. Det adskiller sig markant fra den lukkede tilgang hos OpenAI og Google.
DeepSeeks største indflydelse på erhvervslivet er ikke selve modellerne, men den prisrevolution de har sat i gang. Efter DeepSeek-R1s lancering i januar 2025 faldt markedsværdien for store tech-selskaber som Nvidia, Microsoft og Google med hundredvis af milliarder dollars. Investorer indså, at AI-modeller ikke nødvendigvis kræver enorme budgetter.
For virksomheder, der overvejer AI-implementering, åbner DeepSeek tre konkrete muligheder. Den første er omkostningsreduktion: API-kald til DeepSeek-R1 koster cirka en tredjedel af, hvad tilsvarende kald til GPT-4 koster. For dataintensive applikationer som RAG-pipelines, kundesupport eller dokumentanalyse kan besparelsen være betydelig.
Den anden mulighed er lokal deployment. Fordi modellerne er open source, kan organisationer med strenge krav til data privacy køre DeepSeek på egen infrastruktur. Data forlader aldrig virksomhedens servere, hvilket løser mange af de compliance-udfordringer, der ellers bremser AI-adoption.
Den tredje mulighed er specialisering. Virksomheder kan fine-tune DeepSeeks modeller til branchespecifikke opgaver uden at betale licensafgifter. Det gør det muligt for mindre virksomheder at bygge AI-løsninger, der tidligere var forbeholdt tech-giganter.
Mange enterprise-arkitekter bevæger sig mod en multi-model-strategi, hvor et routing-lag dirigerer opgaver til den mest omkostningseffektive model. DeepSeek indgår her som et stærkt alternativ til proprietære modeller fra OpenAI, Anthropic og Google.
DeepSeek er ikke en plug-and-play enterprise-platform. Modellerne er kraftfulde, men de leveres uden den infrastruktur, support og compliance-ramme, som kommercielle udbydere tilbyder. Virksomheder, der bruger DeepSeeks API-tjeneste direkte, sender data til servere i Kina, hvor kinesisk lovgivning gælder. Det har ført til, at flere lande og myndigheder har forbudt DeepSeeks cloudtjeneste, herunder Australien, Italien, Sydkorea og amerikanske forbundsmyndigheder.
Det er vigtigt at skelne mellem DeepSeeks API-tjeneste og deres open source-modeller. Sikkerhedsbekymringerne vedrører primært API-tjenesten, hvor data sendes til kinesiske servere. Når virksomheder kører open source-modellerne lokalt eller hos en europæisk cloud-udbyder, undgår de dette problem. Det kræver dog teknisk kapacitet at opsætte og vedligeholde.
DeepSeek er heller ikke en erstatning for AI governance. Sikkerhedsforskere har påvist, at DeepSeek-R1 er mere sårbar over for jailbreaking end konkurrenterne. Virksomheder, der anvender modellerne, bør implementere egne guardrails og sikkerhedslag for at beskytte mod misbrug.
Foundation Model: Den overordnede kategori for store, fortrænede AI-modeller som DeepSeek-V3 og R1.
Open-source AI: DeepSeeks distributionsmodel, hvor modelvægte og kode er frit tilgængelige.
Mixture of Experts (MoE): Den arkitektur, DeepSeek bruger til at opnå høj ydeevne med lavere beregningsomkostninger.
LLM (Large Language Model): Den modeltype, som DeepSeek-V3 og V4 tilhører.
Reasoning Model: Den kategori, DeepSeek-R1 tilhører, med fokus på logisk tænkning og problemløsning.
Fine-tuning: Processen med at tilpasse DeepSeeks open source-modeller til specifikke virksomhedsbehov.
Google har scannet milliarder af offentligt tilgængelige hjemmesider og bekræfter nu det,...
Microsoft har i al stilhed samlet et lille team kaldet Ocean 11, der står bag det, der efter alt at...
Den 24. april 2026 lancerede kinesiske DeepSeek en preview af V4-Pro og V4-Flash som ...