Meta lukkede i april 2026 døren til open source-æraen. Med lanceringen af Muse Spark den 8. april...
En feature store samler, styrer og serverer ML-features til træning og produktion. Lær hvorfor det er kritisk infrastruktur for skalerbar AI.


En feature store fungerer som et dobbelt lagringssystem. Den ene del er et offline store (typisk et kolonnært datalager), der gemmer historiske featureværdier til modeltræning. Den anden del er et online store (en lav-latens key-value-database), der serverer de nyeste featureværdier til modeller i produktion, der skal svare inden for millisekunder.
Feature pipelines henter rå data fra kildesystemer, transaktionsdatabaser, CRM, logfiler og andre kilder, transformerer dem til features og gemmer resultatet i feature storen. En feature kan være alt fra "antal transaktioner de seneste 7 dage" til "gennemsnitlig ordreværdi pr. kvartal" eller en embedding-vektor af et produktbillede.
Det afgørende er, at de features, der bruges under træning, er nøjagtigt de samme, som modellen ser i produktion. Denne konsistens mellem træning og inference eliminerer en af de mest udbredte fejlkilder i ML-systemer, ofte kaldet training-serving skew.
Feature storen tilbyder også metadata og governance: hvem oprettede en feature, hvornår blev den sidst opdateret, hvilke modeller bruger den, og er datakilden godkendt til det pågældende formål. Det gør det muligt at opdage og genbruge eksisterende features i stedet for at bygge dem forfra.
Feature stores er mest udbredt i organisationer, der kører flere ML-modeller i produktion samtidig. I finanssektoren er de kritiske for fraud detection, hvor transaktioner skal evalueres i realtid mod hundredvis af features som kundens transaktionsmønstre, geolokation og enheds-fingeraftryk.
Inden for e-commerce og retail bruges feature stores til at drive anbefalingsmotorer og hyper-personalisering. Features som købshistorik, browsingadfærd og kundesegment samles ét sted, så flere modeller kan trække på de samme datapunkter uden at duplikere beregninger.
For virksomheder med predictive analytics-initiativer, f.eks. churn prediction eller lead scoring, reducerer en feature store tiden fra idé til produktion markant. I stedet for at starte med dataudtræk og feature engineering fra bunden kan data scientists browse eksisterende features og bygge nye modeller på timer i stedet for uger.
Den operationelle gevinst er lige så vigtig: færre fejl, lavere vedligeholdelsesomkostninger og bedre sporbarhed. Når en regulator spørger, hvilke data der indgår i en beslutningsmodel, kan feature storen dokumentere det præcist.
En feature store er ikke et data warehouse eller en data lake. Et data warehouse gemmer bredt forretningsdata til rapportering og analyse. En feature store gemmer specifikt de transformerede, ML-klare datapunkter, der bruges som input til modeller. Data flyder typisk fra data warehouse til feature store, ikke omvendt.
En feature store er heller ikke det samme som en data pipeline. Pipelines transporterer og transformerer data. Feature storen er destinationen, der lagrer resultatet og serverer det til modeller med lav latens. De to arbejder sammen, men løser forskellige problemer.
Det er også værd at understrege, at en feature store ikke automatisk gør jeres data klar til ML. Den kræver, at I har defineret og implementeret de feature pipelines, der transformerer rå data til brugbare features. Feature storen organiserer og serverer resultatet, men den erstatter ikke det grundlæggende arbejde med dataforståelse og feature engineering.
Embeddings: Numeriske vektorrepræsentationer af data, der ofte gemmes og serveres via en feature store.
Vector Database: Specialiseret database til lagring og søgning i vektorer, som kan indgå som online store i en feature store-arkitektur.
Data Pipeline: De processer, der transporterer og transformerer data fra kildesystemer til feature storen.
MLOps (Machine Learning Operations): Den bredere praksis for at operationalisere ML, hvor feature stores er en central komponent.
Machine Learning (ML): Den disciplin, feature stores understøtter ved at levere konsistente, genbrugelige inputdata til modeller.
Model Monitoring: Overvågning af modellers performance i produktion, som afhænger af stabile og veldefinerede features.
Meta lukkede i april 2026 døren til open source-æraen. Med lanceringen af Muse Spark den 8. april...
Anthropic har netop annonceret Project Glasswing, et samarbejde med AWS, Apple, Google, Microsoft,...
I marts 2026 blev kunstig intelligens for første gang den mest citerede årsag til fyringsrunder i...