Blog
Kontakt os

Vera Rubin (NVIDIA GPU-arkitektur)

Vera Rubin er NVIDIAs næste generation AI-infrastrukturplatform, opkaldt efter astrofysikeren Vera Rubin. Platformen kombinerer en ny Rubin GPU med en ny Vera CPU i et fælles rack-scale system designet til at drive den næste bølge af AI-workloads, fra træning af massive modeller til realtidsinferens og agentic AI.

For virksomheder, der allerede investerer i AI-infrastruktur eller overvejer at skalere, repræsenterer Vera Rubin et markant spring i ydeevne pr. watt og pr. krone. NVIDIA lover op til 5x bedre inferensydeevne og 10x lavere tokenomkostninger sammenlignet med den nuværende Blackwell-platform.

Platformen forventes tilgængelig i anden halvdel af 2026 hos større cloud-udbydere som Microsoft Azure, AWS og Google Cloud, og er allerede i fuld produktion hos NVIDIA.

Læsetid 3 minOpdateret marts 2026

Hvad kendetegner Vera Rubin-platformen?

Vera Rubin-platformen er bygget op af seks nye chips, der hver har en specifik rolle i det samlede system. Kernen er Rubin GPU'en med 336 milliarder transistorer, bygget på TSMCs 3 nm-proces. Den leverer op til 50 PFLOPS inferensydeevne i NVFP4-format og 35 PFLOPS træningsydeevne, hvilket er henholdsvis 5x og 3,5x mere end forgængeren Blackwell.

Hukommelsen er opgraderet til HBM4 med op til 288 GB pr. GPU og 22 TB/s båndbredde, næsten en tredobling af Blackwells 8 TB/s. Det betyder, at selv meget store sprogmodeller og Mixture of Experts-modeller kan køre effektivt uden flaskehalse i dataoverførslen.

Vera CPU'en er baseret på NVIDIAs egne Arm-baserede "Olympus"-kerner med 88 kerner og 176 tråde. Den understøtter op til 1,5 TB LPDDR5x-hukommelse, hvilket giver systemet kapacitet til at håndtere massive datasæt direkte i arbejdshukommelsen.

Forbindelsen mellem GPU'er sker via NVLink 6, der leverer 3,6 TB/s GPU-til-GPU-båndbredde. Det er dobbelt så meget som forrige generation og afgørende for workloads, der kræver tæt koordinering mellem mange GPU'er.

Flagskibskonfigurationen hedder Vera Rubin NVL72 og består af 72 Rubin GPU'er og 36 Vera CPU'er i et samlet rack. NVIDIA angiver 3,6 EFLOPS inferensydeevne og 20,7 TB HBM4-kapacitet for dette system.

Consile hjælper virksomheder med at navigere valget af AI-infrastruktur og sikre, at investeringer i hardware og cloud matcher jeres forretningsmål. Kontakt os for en uforpligtende vurdering.

Vera Rubin i erhvervslivet

Vera Rubin er designet til det, NVIDIA kalder "AI factories": datacentre, der kører kontinuerlig træning, realtidsinferens, retrieval og analytics døgnet rundt. For virksomheder, der bygger eller skalerer AI-kapacitet, adresserer platformen tre centrale udfordringer: ydeevne, omkostninger og kompleksitet.

På ydeevnefronten muliggør Vera Rubin træning af foundation models med langt færre GPU'er. NVIDIA angiver en 4x reduktion i antallet af GPU'er, der kræves til træning af Mixture of Experts-modeller. Det reducerer ikke bare hardwareomkostninger, men også energiforbrug og den fysiske plads, som infrastrukturen optager.

For inferensworkloads lover platformen 10x lavere tokenomkostninger. I en virkelighed, hvor virksomheder i stigende grad kører agentic AI-workflows med mange sekventielle forespørgsler, er omkostningen pr. token en kritisk parameter for rentabiliteten.

Platformen er også designet til servicebarhed. Et modulært, kabelfrit design reducerer servicetiden med op til 18x sammenlignet med Blackwell. Hvad der tidligere tog over 1,5 time, tager nu cirka 5 minutter. Vera Rubin er desuden NVIDIAs første system, der er 100% væskekølet, hvilket reducerer vandforbruget markant sammenlignet med traditionel fordampningskøling.

De store cloud-udbydere, herunder Microsoft Azure, AWS og Google Cloud, har allerede annonceret planer om at udbyde Vera Rubin-baserede instanser. CoreWeave vil tilbyde platformen til træning, inferens og agentic workloads.

Hvad Vera Rubin ikke er

Vera Rubin er ikke en forbruger-GPU. Platformen er udelukkende designet til datacenter- og enterprise-brug og sælges som rack-scale systemer, ikke som individuelle grafikkort. Virksomheder tilgår typisk Vera Rubin via cloud-udbydere eller som del af NVIDIAs DGX-systemer.

Det er heller ikke en ren GPU-opgradering. Vera Rubin er en komplet platform, der kombinerer GPU, CPU, interconnect, netværk og køling i et integreret system. Man kan ikke blot udskifte en Blackwell-GPU med en Rubin-GPU i et eksisterende setup. Det er en ny systemarkitektur, der kræver planlægning, ikke bare et komponentskift.

Endelig er Vera Rubin ikke en erstatning for en gennemtænkt AI-roadmap. Selv den mest kraftfulde hardware skaber kun værdi, hvis den understøtter klare forretningsmål og er integreret i en sammenhængende AI-strategi.

Ofte stillede spørgsmål om Vera Rubin

Hvornår kan min virksomhed bruge Vera Rubin?

Vera Rubin forventes tilgængelig hos de store cloud-udbydere (Azure, AWS, Google Cloud) i anden halvdel af 2026. NVIDIA bekræftede ved CES 2026, at platformen allerede er i fuld produktion. Kontakt Consile for rådgivning om, hvornår det giver mening at opgradere jeres AI-infrastruktur.

Er det nødvendigt at skifte til Vera Rubin, hvis vi allerede bruger Blackwell?

Ikke nødvendigvis. Blackwell er stadig en yderst kapabel platform. Vera Rubin er mest relevant, hvis I skalerer agentic AI-workloads, træner store MoE-modeller, eller hvis inferensomkostninger er en kritisk faktor. En struktureret vurdering af jeres workloads afgør, om et skift giver ROI.

Kan man købe Vera Rubin som enkelt-GPU?

Nej. Vera Rubin sælges som integrerede rack-scale systemer (NVL72) eller tilgås via cloud-udbydere. Det er en datacenter-platform, ikke et komponentprodukt.