Skip to content
AI Ordbog / NPU (Neural Processing Unit)

NPU (Neural Processing Unit)

En NPU (Neural Processing Unit) er en specialiseret chip bygget til AI-opgaver direkte på enheden. Forstå hvad den gør, og hvorfor den er relevant for din virksomhed.

NPU (Neural Processing Unit)
Frame 4
Frame 3
Frame 2
Frame 1
Frame 5
NPU (Neural Processing Unit)
AI ORDBOG

Hvordan virker en NPU?

En NPU er en chip, der er specialdesignet til at udføre de matematiske operationer, som AI-modeller afhænger af. Hvor en CPU behandler instruktioner sekventielt og en GPU paralleliserer tusindvis af identiske beregninger, er NPU'en optimeret til netop de matrixmultiplikationer og tensoroperationer, der udgør kernen i Deep Learning.

NPU'en arbejder med lavere præcision end en traditionel processor, typisk INT8 eller INT4 i stedet for FP32. Det lyder som en begrænsning, men for AI-inferens (altså at køre en allerede trænet model) er det en fordel. Lavere præcision kræver færre transistorer pr. operation, hvilket giver markant lavere strømforbrug og højere gennemløb.

Ydeevnen måles i TOPS (Tera Operations Per Second). I 2026 leverer de førende NPU'er i bærbare computere mellem 45 og 50 TOPS. AMD's Ryzen AI 300-serie fører med 50 TOPS, efterfulgt af Intel Core Ultra 200V med 48 TOPS og Qualcomm Snapdragon X Elite med 45 TOPS.

I praksis betyder det, at opgaver som realtidstransskription, baggrundssløring i videomøder, billedgenkendelse og lokal dokumentanalyse kan køre direkte på enheden uden at belaste CPU eller GPU. Det frigør ressourcer til andre opgaver og forlænger batterilevetiden med 15-20 % under AI-intensive arbejdsgange.

NPU i erhvervslivet

For virksomheder handler NPU'en om tre ting: hastighed, databeskyttelse og omkostninger. Når AI-opgaver kører lokalt på enheden i stedet for i skyen, eliminerer man latenstiden ved netværksopkald. Det mærkes især i scenarier som realtidsoversættelse, mødetransskription og intelligent dokumentbehandling.

Databeskyttelse er et tungtvejende argument. Når en medarbejder bruger en Copilot-funktion til at analysere et fortroligt dokument, og behandlingen sker lokalt via NPU'en, forlader data aldrig enheden. For virksomheder i regulerede brancher som finans, sundhed og juridisk rådgivning er det en afgørende forskel.

På omkostningssiden reducerer lokal AI-inferens behovet for cloud-baserede API-kald. Hver gang en AI-funktion kører på NPU'en i stedet for på en ekstern server, sparer virksomheden penge på API-forbrug og cloud-compute. Ved skala kan det løbe op i betydelige besparelser.

Konkrete anvendelser i enterprise-konteksten inkluderer automatisk klassificering af e-mails og dokumenter, prædiktiv tekstinput tilpasset virksomhedens terminologi, lokal billedanalyse i kvalitetskontrol, og AI-drevet endpoint-sikkerhed, der identificerer trusler uden at sende data ud af netværket.

Microsoft har gjort NPU'en til en central del af sin AI PC-strategi med Copilot+-funktioner, der kræver minimum 40 TOPS NPU-kapacitet. Det sætter en de facto standard for, hvad enterprise-enheder skal kunne i 2026 og frem.

Hvad en NPU ikke er

En NPU erstatter ikke GPU'en. GPU'er er stadig overlegne til AI-modeltræning, tung grafisk rendering og store parallelle beregninger. NPU'en er designet til inferens, altså at køre færdigtrænede modeller hurtigt og energieffektivt. Tænk på det som forskellen mellem at bygge en motor (GPU-træning) og at køre bilen (NPU-inferens).

Det er også vigtigt at forstå, at en NPU ikke gør cloud-baserede AI-tjenester hurtigere. Når du bruger ChatGPT, Google Gemini eller andre web-baserede AI-værktøjer, sker beregningen på fjernservere. NPU'en på din enhed er ikke involveret. NPU'en accelererer kun de AI-funktioner, der er designet til at køre lokalt.

Endelig er en NPU ikke det samme som en LLM eller en AI-model. NPU'en er hardwaren. Den gør ingenting uden software, der er optimeret til at udnytte den. Værdien af en NPU afhænger derfor helt af, hvilke applikationer og operativsystemer der understøtter den.

Relaterede termer

Deep Learning: Den gren af machine learning, der bruger neurale netværk med mange lag. NPU'er er bygget til at accelerere netop disse beregninger.

Machine Learning (ML): Det overordnede felt, som NPU'en understøtter ved at gøre inferens hurtigere og mere energieffektiv på lokale enheder.

Foundation Model: De store, forudtrænede AI-modeller (GPT, Claude, Gemini), som NPU'er kan køre komprimerede versioner af lokalt.

Edge AI: AI-behandling der sker på selve enheden frem for i skyen. NPU'en er den hardware, der muliggør edge AI i bærbare computere og smartphones.

Copilot: Microsofts AI-assistent, der i stigende grad bruger NPU'en til lokale AI-funktioner som dokumentanalyse og mødeopsummering.

Custom AI Silicon (Tilpassede AI-chips): Den bredere kategori af specialdesignede AI-chips, som NPU'er tilhører sammen med Googles TPU'er og Amazons Inferentia.