Anthropic lancerede i marts 2026 en funktion, der lader deres AI-model Claude styre brugernes...
Vera Rubin er NVIDIAs næste generation AI-platform med Rubin GPU og Vera CPU. Forstå specifikationer, erhvervsmuligheder og hvad den betyder for din virksomhed.


Vera Rubin-platformen er bygget op af seks nye chips, der hver har en specifik rolle i det samlede system. Kernen er Rubin GPU'en med 336 milliarder transistorer, bygget på TSMCs 3 nm-proces. Den leverer op til 50 PFLOPS inferensydeevne i NVFP4-format og 35 PFLOPS træningsydeevne, hvilket er henholdsvis 5x og 3,5x mere end forgængeren Blackwell.
Hukommelsen er opgraderet til HBM4 med op til 288 GB pr. GPU og 22 TB/s båndbredde, næsten en tredobling af Blackwells 8 TB/s. Det betyder, at selv meget store sprogmodeller og Mixture of Experts-modeller kan køre effektivt uden flaskehalse i dataoverførslen.
Vera CPU'en er baseret på NVIDIAs egne Arm-baserede "Olympus"-kerner med 88 kerner og 176 tråde. Den understøtter op til 1,5 TB LPDDR5x-hukommelse, hvilket giver systemet kapacitet til at håndtere massive datasæt direkte i arbejdshukommelsen.
Forbindelsen mellem GPU'er sker via NVLink 6, der leverer 3,6 TB/s GPU-til-GPU-båndbredde. Det er dobbelt så meget som forrige generation og afgørende for workloads, der kræver tæt koordinering mellem mange GPU'er.
Flagskibskonfigurationen hedder Vera Rubin NVL72 og består af 72 Rubin GPU'er og 36 Vera CPU'er i et samlet rack. NVIDIA angiver 3,6 EFLOPS inferensydeevne og 20,7 TB HBM4-kapacitet for dette system.
Vera Rubin er designet til det, NVIDIA kalder "AI factories": datacentre, der kører kontinuerlig træning, realtidsinferens, retrieval og analytics døgnet rundt. For virksomheder, der bygger eller skalerer AI-kapacitet, adresserer platformen tre centrale udfordringer: ydeevne, omkostninger og kompleksitet.
På ydeevnefronten muliggør Vera Rubin træning af foundation models med langt færre GPU'er. NVIDIA angiver en 4x reduktion i antallet af GPU'er, der kræves til træning af Mixture of Experts-modeller. Det reducerer ikke bare hardwareomkostninger, men også energiforbrug og den fysiske plads, som infrastrukturen optager.
For inferensworkloads lover platformen 10x lavere tokenomkostninger. I en virkelighed, hvor virksomheder i stigende grad kører agentic AI-workflows med mange sekventielle forespørgsler, er omkostningen pr. token en kritisk parameter for rentabiliteten.
Platformen er også designet til servicebarhed. Et modulært, kabelfrit design reducerer servicetiden med op til 18x sammenlignet med Blackwell. Hvad der tidligere tog over 1,5 time, tager nu cirka 5 minutter. Vera Rubin er desuden NVIDIAs første system, der er 100% væskekølet, hvilket reducerer vandforbruget markant sammenlignet med traditionel fordampningskøling.
De store cloud-udbydere, herunder Microsoft Azure, AWS og Google Cloud, har allerede annonceret planer om at udbyde Vera Rubin-baserede instanser. CoreWeave vil tilbyde platformen til træning, inferens og agentic workloads.
Vera Rubin er ikke en forbruger-GPU. Platformen er udelukkende designet til datacenter- og enterprise-brug og sælges som rack-scale systemer, ikke som individuelle grafikkort. Virksomheder tilgår typisk Vera Rubin via cloud-udbydere eller som del af NVIDIAs DGX-systemer.
Det er heller ikke en ren GPU-opgradering. Vera Rubin er en komplet platform, der kombinerer GPU, CPU, interconnect, netværk og køling i et integreret system. Man kan ikke blot udskifte en Blackwell-GPU med en Rubin-GPU i et eksisterende setup. Det er en ny systemarkitektur, der kræver planlægning, ikke bare et komponentskift.
Endelig er Vera Rubin ikke en erstatning for en gennemtænkt AI-roadmap. Selv den mest kraftfulde hardware skaber kun værdi, hvis den understøtter klare forretningsmål og er integreret i en sammenhængende AI-strategi.
Foundation Model: De store basismodeller, som Vera Rubin er designet til at træne og køre inferens på.
Inference: Den proces, hvor en trænet model genererer svar. Vera Rubins primære designmål er hurtigere og billigere inferens.
Agentic AI: AI-systemer, der handler autonomt. Vera Rubin er specifikt optimeret til agentic workloads med mange sekventielle kald.
Mixture of Experts (MoE): En modelarkitektur, der aktiverer kun dele af modellen pr. forespørgsel. Vera Rubin reducerer GPU-kravene til MoE-træning med 4x.
Edge AI: AI-processering tæt på datakilden, i modsætning til Vera Rubins datacenter-fokus.
Cloud AI: Den typiske adgangsmodel for Vera Rubin, da de fleste virksomheder vil tilgå platformen via cloud-udbydere.
Anthropic lancerede i marts 2026 en funktion, der lader deres AI-model Claude styre brugernes...
Du behøver ikke en cloud-tjeneste eller et NVIDIA-grafikkort for at køre en kraftfuld LLM lokalt....
Halvdelen af alle danske netbutikker investerer i AI i 2026, og for første gang nogensinde dukker...