Ny data fra marts 2026 tegner et overraskende billede: selvom næsten 9 ud af 10 virksomheder bruger...
Federated learning gør det muligt at træne AI-modeller på tværs af organisationer uden at flytte data. Forstå princippet, fordelene og de vigtigste use cases.


Processen begynder med, at en central server opretter en global model og distribuerer den til alle deltagere. Hver deltager træner modellen lokalt på sit eget datasæt og sender kun de opdaterede modelparametre tilbage. Serveren aggregerer opdateringerne fra alle deltagere til en forbedret global model, som derefter sendes ud i en ny runde. Denne cyklus gentages, indtil modellen opnår den ønskede præcision.
Den tekniske kerne er aggregeringsmekanismen. Den mest udbredte metode hedder Federated Averaging (FedAvg), hvor serveren beregner et vægtet gennemsnit af alle lokale modelopdateringer. For at styrke privatlivsbeskyttelsen kombineres dette typisk med teknikker som differential privacy, der tilføjer kontrolleret statistisk støj, og secure aggregation, der sikrer, at serveren kun ser det samlede resultat og ikke individuelle bidrag.
En væsentlig forskel fra traditionel Machine Learning er, at data aldrig centraliseres. Hvor klassisk ML kræver, at alle træningsdata samles på én server, forbliver data i federated learning hos den organisation eller enhed, der ejer dem. Det reducerer risikoen for datalæk drastisk og gør det lettere at overholde regulering som GDPR.
Federated learning kan implementeres i to varianter: cross-device, hvor modellen trænes på mange enheder som telefoner eller IoT-sensorer, og cross-silo, hvor et mindre antal organisationer (f.eks. hospitaler eller banker) samarbejder. For de fleste virksomheder er cross-silo-varianten mest relevant.
Sundhedssektoren er et af de stærkeste use cases. Hospitaler og forskningsinstitutioner kan samarbejde om at træne diagnostiske modeller på tværs af patientdata uden at dele personfølsomme oplysninger. Det giver adgang til langt større og mere varierede datasæt, end et enkelt hospital har, og resulterer i modeller, der generaliserer bedre og undgår bias fra ét hospitals demografi.
I finanssektoren bruger banker federated learning til at opdage svindelmønstre på tværs af institutioner. Hver bank træner lokalt på sine egne transaktionsdata, og den fælles model bliver bedre til at identificere nye typer bedrageri, end nogen enkelt bank kunne opnå alene. Samme princip gælder for AI-baseret kreditvurdering og risikostyring.
Inden for produktion og supply chain gør federated learning det muligt for virksomheder at samarbejde om prædiktiv vedligeholdelse. Producenter kan træne modeller til at forudsige udstyrsfejl baseret på sensordata fra mange fabrikker uden at afsløre produktionsdata til konkurrenter eller partnere.
For virksomheder, der arbejder med Conversational AI og sprogmodeller, tilbyder federated learning en vej til at forbedre modellernes præcision med kundeinteraktioner uden at centralisere følsomme samtaledata. Det er særligt relevant for organisationer, der håndterer personoplysninger eller opererer under streng AI Governance.
Federated learning er ikke en fuldstændig garanti for privatlivsbeskyttelse i sig selv. Modelopdateringer kan under visse omstændigheder afsløre information om de underliggende data, hvilket er grunden til, at implementeringer typisk kombinerer federated learning med differential privacy og kryptografiske teknikker. Det er en stærk komponent i en privatlivsstrategi, men ikke et universalmiddel.
Det er heller ikke en erstatning for god Ansvarlig AI-praksis. Selv om data forbliver lokalt, kræver modellen stadig kvalitetsdata, gennemtænkt evaluering og løbende monitorering. Federated learning ændrer, hvor modellen trænes, men ikke behovet for disciplineret ML-praksis.
Endelig er federated learning ikke altid den bedste løsning. Hvis en organisation har tilstrækkelig data selv, og der ikke er regulatoriske eller kommercielle barrierer for centralisering, kan traditionel træning være enklere og mere effektiv. Federated learning tilføjer kompleksitet i form af kommunikation, synkronisering og heterogenitet i data, og den merværdi skal opveje den ekstra indsats.
Machine Learning (ML): Den bredere disciplin, som federated learning er en undergren af. ML handler om at lade systemer lære mønstre fra data uden eksplicit programmering.
Deep Learning: En undertype af ML baseret på dybe neurale netværk, som ofte bruges i kombination med federated learning til komplekse opgaver som billedgenkendelse og sprogforståelse.
AI Governance: Rammerne for, hvordan organisationer styrer, kontrollerer og overvåger deres brug af AI, herunder data og privatlivsbeskyttelse.
Ansvarlig AI (Responsible AI): Principperne for etisk og gennemsigtig AI-udvikling, som federated learning understøtter ved at minimere dataeksponering.
Data Privacy i AI: Det bredere tema om, hvordan personoplysninger beskyttes i AI-systemer, hvor federated learning er én af flere tilgange.
Confidential Computing: En komplementær teknologi, der beskytter data under beregning ved hjælp af hardware-baserede sikkerhedsmekanismer.