Vercel offentliggjorde i april 2026 en sikkerhedshændelse der startede et helt andet sted end deres...
Confidential computing beskytter data, mens den behandles. Forstå teknologien bag, hvorfor den er afgørende for AI, og hvad den betyder for din virksomhed.


Kernen i confidential computing er en Trusted Execution Environment (TEE), et hardwarebaseret, isoleret område i processoren. Når data sendes ind i en TEE, krypteres den i et afskærmet hukommelsesområde, som hverken operativsystem, hypervisor eller cloud-administrator kan tilgå. Det er ikke software-baseret sikkerhed, men fysisk isolation på chip-niveau.
TEE'en fungerer som et pengeskab inde i en bankboks. Selv den, der ejer bygningen (cloud-udbyderen), kan ikke åbne pengeskabet. Data dekrypteres kun inde i TEE'en, behandles der, og resultatet sendes ud i krypteret form.
En central egenskab er attestation: TEE'en kan bevise over for en ekstern part, at den kører præcis den kode, den påstår at køre, og at data ikke er blevet manipuleret. Det giver en verificerbar tillidsgaranti, som ren software-sikkerhed ikke kan levere.
De store cloud-udbydere tilbyder alle confidential computing: Azure Confidential Computing, Google Confidential Space og AWS Nitro Enclaves. NVIDIA har med sin H100- og H200-platform gjort det muligt at køre deep learning-workloads i sikre TEE'er, hvilket åbner for confidential AI i stor skala.
Den mest oplagte anvendelse er AI på følsomme data. Virksomheder, der vil bruge generativ AI på kundedata, patientjournaler eller finansielle transaktioner, har brug for garanti for, at data ikke eksponeres under behandlingen. Confidential computing leverer den garanti på hardwareniveau.
I finanssektoren bruger banker teknologien til fælles fraud detection uden at dele rådata med hinanden. Flere institutioner kan træne en fælles AI-model i en TEE, hvor ingen enkelt part kan se de andres data. Resultatet er bedre modeller uden compliance-risiko.
Sundhedssektoren er et andet kerneområde. Hospitaler og forskningsinstitutioner kan samarbejde om AI-drevne analyser af patientdata på tværs af organisationer, uden at bryde GDPR eller patientfortrolighed. Det accelererer forskning i lægemiddeludvikling og personlig behandling markant.
For virksomheder, der opererer under EU AI Act, tilbyder confidential computing en konkret teknisk mekanisme til at dokumentere databeskyttelse i højrisiko AI-systemer. Det er ikke bare god praksis, men en vej til at opfylde regulatoriske krav.
Endelig er der IP-beskyttelse. AI-modeller repræsenterer betydelige investeringer, og under inferens er modelparametre potentielt synlige for den, der hoster modellen. Confidential computing beskytter både inputdata og selve modellen, hvilket gør det muligt at tilbyde AI-as-a-Service uden at eksponere forretningskritisk IP.
Confidential computing er ikke en erstatning for kryptering af data i hvile eller under transport. Det er det tredje lag i en komplet krypteringsstrategi. Uden de to andre lag er data stadig sårbar, når den opbevares eller overføres. Virksomheder skal tænke det som end-to-end-kryptering, hvor confidential computing dækker den del, der hidtil har været ubeskyttet.
Det er heller ikke en universalløsning for datasikkerhed. Confidential computing beskytter data under behandling, men det forhindrer ikke fejl i selve applikationen, dårlig adgangsstyring eller social engineering. Det er ét element i en bredere sikkerhedsarkitektur, der også inkluderer AI compliance, logging og overvågning.
Endelig bør man ikke forveksle confidential computing med federated learning. Begge teknologier handler om at beskytte data i samarbejdsscenarier, men de løser problemet forskelligt. Federated learning holder data lokalt og deler kun modelopdateringer. Confidential computing tillader, at data samles og behandles centralt, men i et hardwarebeskyttet miljø. De to tilgange supplerer hinanden og kombineres ofte i praksis.
Federated Learning: En træningsmetode, hvor data forbliver lokalt, og kun modelopdateringer deles. Komplementær til confidential computing i privacy-scenarier.
Data Privacy i AI: Det bredere felt af teknikker og principper for at beskytte persondata i AI-systemer, hvor confidential computing er en central teknologisk komponent.
AI Compliance: Processen med at sikre, at AI-systemer overholder regulatoriske krav. Confidential computing leverer teknisk dokumentation for databeskyttelse.
Edge AI: Beregning tæt på datakilden, som i kombination med TEE'er kan sikre fortrolig behandling uden cloud-afhængighed.
EU AI Act: Europas reguleringsramme for AI, der stiller krav til databeskyttelse i højrisiko-systemer, hvor confidential computing er en relevant compliance-mekanisme.
Cloud AI: AI-workloads i cloud-infrastruktur, hvor confidential computing adresserer tillidsudfordringen ved at køre følsomme beregninger hos tredjeparter.
Vercel offentliggjorde i april 2026 en sikkerhedshændelse der startede et helt andet sted end deres...
Et kinesisk forskerteam har bygget et system der designer nye AI-arkitekturer, renser træningsdata...
Den 31. marts 2026 publicerede nordkoreanske hackere to kompromitterede versioner af axios, en af...