I marts 2026 blev kunstig intelligens for første gang den mest citerede årsag til fyringsrunder i...
Frontier Model Forum samler Anthropic, Google, Microsoft, OpenAI, Amazon og Meta om ansvarlig udvikling af avancerede AI-modeller. Læs hvad det betyder.


Frontier Model Forum er etableret som en 501(c)(6) nonprofit med et snævert, men højtprofileret mandat: at håndtere de risici, der knytter sig til de allermest kapable AI-modeller, også kaldet frontier models. Det dækker især risici, der potentielt kan ramme den offentlige sikkerhed, herunder kemiske, biologiske, radiologiske, nukleare (CBRN) og avancerede cybertrusler.
Konkret arbejder forummet langs fire spor. Det første er forskning: FMF koordinerer arbejde inden for områder som adversarial robustness, mekanistisk fortolkelighed, skalerbar oversight, og detektion af emergente adfærdsmønstre i modellerne. Det andet spor er benchmarks og evalueringer, herunder specifikke vurderingsværktøjer for biosikkerhed, som Virology Capabilities Test.
Det tredje spor er vidensdeling mellem medlemmerne, og fra 2026 også operationel deling af trusselsefterretninger. Det fjerde er dialog med myndigheder, forskere og civilsamfundet om, hvordan ansvarlig udvikling af frontier-modeller bør se ud i praksis.
Oven i dette driver FMF AI Safety Fund, en fond på over 10 millioner dollars, der uddeler forskningsstipendier til uafhængige forskere. I 2025 modtog 11 nye modtagere mere end 5 millioner dollars til projekter inden for evalueringer, red teaming og benchmarking af frontier-modeller.
De fleste danske virksomheder bliver ikke medlem af Frontier Model Forum. Men de er kunder hos dem. Hvis din organisation bruger GPT fra OpenAI, Claude fra Anthropic, Gemini fra Google eller Llama fra Meta, så bliver beslutningerne i FMF til den sikkerhedsstandard, der følger med modellerne ind i jeres systemer.
Det gælder blandt andet, hvordan modellerne testes før udgivelse, hvilke risikokategorier leverandørerne forpligter sig til at afdække, og hvordan de rapporterer hændelser. For virksomheder, der arbejder med reguleret data eller kritiske forretningsprocesser, er det relevant input til jeres egen AI Governance og leverandørvurdering.
Et andet aspekt er samspillet med lovgivning. EU's General-Purpose AI Code of Practice, der trådte i kraft i august 2025, svarer i vid udstrækning til den industripraksis, FMF-medlemmerne allerede har forpligtet sig til. Det betyder, at når din virksomhed stiller krav til en leverandør om overholdelse af EU AI Act, bygger svaret i praksis ofte på rammer udviklet i FMF-regi.
For bestyrelser og ledelser giver FMF en genvej til at forstå, hvordan de største AI-leverandører tænker risiko. Årsrapporter, tekniske papers og safety frameworks fra forummet er ikke markedsføringsmateriale, men konkrete dokumenter, der beskriver, hvor grænserne for ansvarlig udvikling aktuelt trækkes.
Frontier Model Forum er ikke en regulator. FMF har ingen myndighed til at udstede sanktioner, trække licenser eller pålægge bøder. Arbejdet er frivilligt, og medlemskab bygger på selvforpligtelse. Den formelle regulering af frontier-modeller sker via EU's AI Act, amerikanske executive orders og nationale lovgivninger, ikke via FMF.
Forummet er heller ikke en lobbyorganisation. Ifølge vedtægterne engagerer FMF sig ikke i politisk lobbyarbejde. Det er en vigtig skelnen fra de brancheorganisationer, der også arbejder for AI-sektorens interesser over for lovgivere.
Endelig skal Frontier Model Forum ikke forveksles med de enkelte medlemmers egne safety frameworks. Hver virksomhed har sit eget Responsible Scaling Policy, Preparedness Framework eller tilsvarende. FMF er mødestedet, hvor disse frameworks sammenlignes og videreudvikles i fællesskab, men det er fortsat den enkelte leverandør, der beslutter, hvordan deres modeller trænes og udrulles.
Frontier Model: De mest avancerede og kapable AI-modeller, som FMF fokuserer på, typisk de største generelle sprogmodeller.
AI Governance: Den organisatoriske praksis for at styre, overvåge og stille krav til AI-anvendelse i virksomheden.
EU AI Act: EU's omfattende AI-lovgivning, der fra 2026 regulerer GPAI-modeller med systemisk risiko.
Ansvarlig AI: Det bredere felt for etisk og sikker AI-udvikling, som FMF bidrager til på industriplan.
Red Teaming for AI: Struktureret stress-testing af AI-modeller for at finde svagheder og risici, centralt i FMF's forskningsagenda.
Foundation Model: Basismodellerne bag de fleste frontier-systemer, som medlemmerne af FMF udvikler.
AI Suverænitet: Debatten om, hvor meget afhængighed et land bør acceptere til udenlandske frontier-modeller.
Risk Management System: Det formelle risikostyringskrav under AI Act, der delvist bygger på praksisser udviklet i FMF.
I marts 2026 blev kunstig intelligens for første gang den mest citerede årsag til fyringsrunder i...
Hvad hvis dine bedste AI-eksperter kunne gennemgå din tekst samtidigt, på få sekunder, og give dig...
Ifølge Gartners seneste prognose vil 90 % af alle B2B-køb være formidlet af AI-agenter inden 2028....