Skip to content
AI Ordbog / Hvad er Cloud AI?

Hvad er Cloud AI?

Cloud AI dækker AI-tjenester fra AWS, Azure, Google og europæiske leverandører. Forstå platforme, EU-regulering og hvornår on-premise vinder regnestykket.

Hvad er Cloud AI?
Frame 4
Frame 3
Frame 2
Frame 1
Frame 5
Hvad er Cloud AI?
AI ORDBOG

Hvordan virker Cloud AI?

Cloud AI fungerer ved, at en cloududbyder stiller computerkraft, storage og AI-specifikke tjenester til rådighed over internettet. Virksomheden tilgår ressourcerne via API'er eller managed services og betaler efter forbrug. Det fjerner behovet for selv at eje, installere og opdatere hardware lokalt.

De store cloudplatforme leverer AI-tjenester på tre niveauer.

Det første niveau er færdigbyggede AI-API'er til opgaver som billedgenkendelse, talegenkendelse, oversættelse og tekstanalyse. De kræver ingen ML-ekspertise og integreres direkte i eksisterende applikationer.

Det andet niveau er managed ML-platforme som AWS SageMaker, Azure AI Foundry og Google Vertex AI. Her kan datateams træne, evaluere og udrulle egne modeller i et styret miljø, ofte med automatisk skalering, eksperimentstyring og MLOps-værktøjer.

Det tredje niveau er adgang til foundation models via tjenester som AWS Bedrock og Azure OpenAI Service. Det giver virksomheder adgang til store sprogmodeller som LLM'er, herunder Claude, GPT, Llama og Gemini, uden selv at hoste dem.

To begreber er afgørende for at forstå Cloud AI-økonomien i 2026. Det første er forskellen mellem træning og inferens. Træning af en model kræver intens computerkraft i timer eller dage, og er typisk en engangsudgift eller noget, der sker periodisk. Inferens er den løbende brug af modellen, hver gang en bruger sender et spørgsmål, eller en applikation kalder API'et. Inferens oversteg træning som dominerende AI-omkostning i første kvartal 2026 og udgør nu 55% af samlet AI cloudspending. McKinsey vurderer, at inferens vil udgøre 70-80% af al AI-compute i 2027 til 2030.

Det andet er tokenøkonomi. AI-tjenester prises typisk per token, hvor en token svarer til omtrent et halvt ord. Cost per million tokens er i 2026 blevet en mere relevant metrik end den klassiske GPU-time. Forskellen mellem cloud-API-priser og selvhostet inferens er ofte en faktor 8-18 ifølge Lenovos 2026 TCO-analyse, hvilket gør tokenøkonomi til en strategisk forretningsdiskussion, ikke bare en teknisk beslutning.

AWS Bedrock, Azure AI Foundry og Google Vertex AI

De tre store hyperscalers har udviklet hver deres position på cloud AI-markedet, og forskellene er substantielle nok til, at platformvalget bør være bevidst.

AWS Bedrock er positioneret som en model-marketplace. Bedrock giver adgang til over 40 foundation models fra otte forskellige udbydere bag ét enkelt API. Anthropics Claude-familie er kun tilgængelig via Bedrock med enterprise indemnification, hvilket betyder, at AWS overtager juridisk ansvar for IP-krav mod modellens output. Bedrock hoster også Meta Llama, Mistral, Cohere Command R+, Stability AIs billede-modeller og Amazons egne Nova- og Titan-modeller. AgentCore tilføjer agent-orkestrering og guardrails. For organisationer, der allerede er på AWS, betyder Bedrock, at eksisterende IAM-roller, VPC-endpoints og CloudTrail-audit udvides direkte til AI-workloads.

Azure AI Foundry er bygget op om Microsofts eksklusive OpenAI-partnerskab. GPT-5, GPT-4.1, o3 og o4-mini er kun tilgængelige via Azure OpenAI Service eller direkte hos OpenAI. Foundry rummer derudover over 1.700 modeller, herunder Phi, som er Microsofts egne small language models. Azures styrke er den dybe integration med Microsoft 365, GitHub Copilot og Entra ID. Bagsiden er prisen. Azure OpenAI ligger 15-40% over OpenAI's direkte API-priser ifølge analyser fra TokenMix.ai i april 2026, og leverandørafhængigheden er reel.

Google Vertex AI er bygget om Google Cloud-stakken og leverer Gemini 2.0 Ultra, Pro og Nano nativt. Den tekniske differentiator er grounding via Google Search og BigQuery, hvor agenter kan referere til virksomhedens egne data eller live web-resultater med fin-grained access controls. Vertex AI Agent Builder er en low-code platform til at bygge domænespecifikke agenter, og ADK (Agent Development Kit) tilbyder en ren Python-API. Gemini har et kontekstvindue på 1 million tokens, hvilket er otte gange større end de fleste konkurrenter.

I praksis vælger de fleste organisationer cloud AI-platform efter eksisterende cloud-binding, ikke efter den enkelte models egenskaber. En AWS-first virksomhed bruger Bedrock. En virksomhed med data i BigQuery bruger Vertex. En enterprise på Microsoft 365 bruger Azure OpenAI. Det er korrekt instinkt. Den varige værdi ligger i infrastrukturintegrationen, ikke i modelkatalogerne, som konvergerer hurtigt.

Cloud AI bruges i erhvervslivet til konkrete use cases som conversational AI i kundeservice, retrieval-augmented generation med embeddings til vidensbaseret søgning, automatisk dokumentbehandling, prædiktiv vedligeholdelse og personalisering i e-commerce. Også generativ AI tilgås typisk via cloud-API'er. Fælles for use casene er, at workloadet varierer i intensitet og sjældent retfærdiggør en dedikeret on-premise opsætning fra starten.

Den europæiske dimension: suverænitet og alternativer

For europæiske virksomheder er valget af cloud AI ikke kun et teknisk eller økonomisk spørgsmål. Det er også et juridisk og strategisk valg, og presset er steget markant i 2026.

Den centrale konflikt er mellem den amerikanske CLOUD Act fra 2018 og EU's GDPR-artikel 48. CLOUD Act giver amerikanske myndigheder ret til at kræve data udleveret fra US-baserede tjenesteudbydere, uanset hvor data fysisk er lagret. GDPR-artikel 48 fastslår, at retsafgørelser fra tredjelande kun er gyldige, hvis de er baseret på internationale aftaler som MLAT, hvilket CLOUD Act ikke er. Det betyder, at AWS, Azure og Google Cloud er underlagt amerikansk jurisdiktion, selv når data ligger i Frankfurt, Dublin eller Stockholm. Hyperscalers har lanceret sovereign cloud-tilbud som Microsoft EU Data Boundary, Amazon European Sovereign Cloud og Google Sovereign Controls, der forbedrer kontrol, men ifølge en fransk senatshøring i 2025 kunne ingen hyperscaler-leder garantere, at kundedata aldrig ville blive overført til amerikanske myndigheder.

EU AI Act tilføjer endnu et lag. Loven trådte i kraft i august 2024, og forbud mod uacceptable AI-anvendelser blev aktive i februar 2025. Transparenskrav for general-purpose AI-modeller blev aktive i august 2025. Den næste store milepæl er 2. august 2026, hvor reglerne for højrisiko AI-systemer som udgangspunkt skal være efterlevet. EU-kommissionen foreslog dog i november 2025 en forlængelse på op til 16 måneder, hvilket maksimalt vil flytte deadline til december 2027. Bøderne for non-compliance kan nå op til 35 mio. euro eller 7% af global omsætning. Derudover er EU Cloud and AI Development Act på vej, foreslået i Q1 2026 med target Q4 2027.

På leverandørsiden har den sovereign cloud-bevægelse fået reel skala. McKinsey vurderer i marts 2026, at sovereign AI alene udgør cirka 600 mia. dollars af et samlet AI-marked på 1.000 mia. dollars.

Mistral AI er den franske frontier-lab, sidst værdiansat til 13,7 mia. dollars i februar 2026. Mistral kombinerer open-weight modeller, der kan køres på egen infrastruktur, med en managed platform. Et debt financing-package på 830 mio. dollars fra februar 2026 finansierer 13.800 Nvidia-GPU'er i et nyt datacenter i Paris-regionen.

Cohere og Aleph Alpha annoncerede 24. april 2026 en fusion til en samlet værdi på cirka 20 mia. dollars, hvilket gør den til Europas højest værdiansatte AI-aktør. Schwarz Group, ejer af Lidl, skyder 600 mio. dollars ind, og den fusionerede enhed deployes på STACKIT, Schwarz Digits' europæiske cloud-platform.

STACKIT, OVHcloud i Frankrig, Deutsche Telekom Industrial AI Cloud og IONOS er rene europæiske infrastrukturalternativer, der ikke er underlagt CLOUD Act.

SAP EU AI Cloud blev lanceret i slutningen af 2025 og kombinerer SAPs Business Technology Platform med Aleph Alpha og Mistral som modelleverandører. For SAP-tunge organisationer er det den letteste vej til en sovereign AI-stak.

Hybride sovereign-løsninger som Bleu, der er et samarbejde mellem Microsoft, Orange og Capgemini i Frankrig, Delos, der er et samarbejde mellem Microsoft og SAP i Tyskland, og S3NS, der er et samarbejde mellem Google og Thales, anvender hyperscaler-teknologi inden for europæiske juridiske strukturer. De er pragmatiske, men juridiske eksperter peger på, at de ikke fuldt ud løser CLOUD Act-eksponeringen.

For en dansk virksomhed, der behandler kundedata, persondata om medarbejdere eller forretningskritisk IP, er valget mellem en US-hyperscaler, en hybrid sovereign-løsning og en ren europæisk udbyder ikke længere trivielt. Det afhænger af risikoprofil, branche og fremtidige compliancekrav.

Cloud vs on-premise: hvornår skifter regnestykket?

Den klassiske påstand om, at Cloud AI altid er billigere end on-premise, holder ikke længere i 2026. Lenovos TCO-analyse fra februar 2026 viser, at on-premise-infrastruktur når breakeven på under fire måneder for vedvarende inference-workloads med GPU-udnyttelse over 20%. Over en femårig hardwarecyklus kan selvhostet inferens være 8 til 18 gange billigere per million tokens end frontier model-as-a-service-API'er.

Skiftet skyldes flere samtidige faktorer. NVIDIA Blackwell-arkitekturen, B200 og B300, leverer over tre gange højere inferens-throughput end den tidligere Hopper-generation, hvilket komprimerer hardwarefodaftrykket. H100-priserne er normaliseret efter forsyningskrisen og ligger nu på 22.000 til 25.000 dollars per kort, hvor de tidligere kostede 28.000 til 33.000 dollars. Open-weight modeller som Llama 4 og Mistral Large 3 leverer GPT-4-klasse output på hardware, du selv ejer.

Cloud AI giver dog stadig mest mening i flere konkrete situationer. Når workloads er bursty eller uforudsigelige, gør cloudens elasticitet den mere økonomisk end overdimensioneret on-prem. Til prototyping og eksperimentering, hvor time-to-value er kritisk, er cloud det åbenlyse valg. Når en virksomhed har behov for adgang til frontier-modeller som GPT-5, Claude Opus eller Gemini Ultra, der kun findes via cloud-API'er. Til træning af egne modeller, hvor man har brug for hundredvis af GPU'er i kort tid og frigive dem bagefter.

On-premise vinder typisk, når flere af disse faktorer er til stede: vedvarende inferens-workloads med høj GPU-udnyttelse, latency-krav under 50 ms, streng datasuverænitet for sundhedsdata, finansielle data eller klassificerede data, token-volumen over 500 mio. per måned, og en eksisterende ML-organisation, der kan drive infrastrukturen.

I praksis er ren cloud eller ren on-prem ikke længere standardvalget. Tre-tier hybrid med cloud, on-premise og edge AI er default i 2026. 89% af virksomheder bruger to eller flere cloud-leverandører, og en McKinsey-undersøgelse fra marts 2026 viser, at 72% af europæiske virksomheder rangerer datakontrol som top-prioritet, mens omkring 70% stadig er strukturelt afhængige af US-hyperscalers. Det gap er præcis, hvor de strategiske valg ligger de næste 18 måneder.

For at gøre vurderingen konkret: estimer din månedlige token-volumen, vurder, hvor stabil belastningen er, klassificer, hvor følsomme dine data er, og identificer, hvor latency reelt påvirker forretningen. Hvis tre eller flere af de fire faktorer peger mod on-prem eller hybrid, er det værd at få lavet en detaljeret TCO-sammenligning i stedet for at default'e til cloud.