En softwareingeniør i Stockholm bruger mere på LLM-tokens end hans arbejdsgiver betaler ham i løn. En OpenAI-ingeniør brændte 210 milliarder tokens af på en enkelt uge. Velkommen til tokenmaxxing, Silicon Valleys nyeste statuskamp, hvor medarbejdere konkurrerer om at forbruge mest mulig AI.
Fænomenet er ikke bare en kuriositet fra tech-industrien. Det rejser fundamentale spørgsmål om, hvordan virksomheder måler værdien af deres AI-investeringer, og om de risikerer at forveksle aktivitet med produktivitet. For danske B2B-virksomheder, der investerer i AI, er lektien klar: tokens er ikke et mål i sig selv.
Hvad er tokenmaxxing, og hvorfor taler alle om det?
Begrebet blev populariseret af New York Times-journalist Kevin Roose og hans Hard Fork-podcast i marts 2026. Kernen er enkel: medarbejdere ved virksomheder som Meta, OpenAI og Shopify konkurrerer på interne leaderboards, der tracker, hvor mange AI-tokens hver person eller team forbruger. Tokens er de tekstbidder, som generative AI-modeller behandler, hver gang du sender en prompt.
Nvidias CEO Jensen Huang kastede benzin på bålet under GTC-konferencen, da han foreslog, at ingeniører bør modtage op til halvdelen af deres grundløn i form af AI-tokens som en fjerde kompensationssøjle ved siden af løn, aktier og bonus. Hans toppersoner, anslog han, kunne brænde $250.000 om året af i AI-compute.
Et værktøj kaldet Tokscale har gjort tokenmaxxing til en global sport. Platformen tracker AI-tokenforbrug på tværs af Claude Code, Cursor, Codex, Gemini og 11 andre kodningsassistenter og udgiver et offentligt leaderboard. Tallene er vilde: 2,7 billioner tokens forbrugt på tværs af alle brugere, $1,5 millioner i samlede AI-omkostninger, og den største forbruger står for 222,7 milliarder tokens til en værdi af $69.700.
Meta blev i 2026 den første store tech-virksomhed, der formelt binder medarbejdernes præstationsvurderinger til AI-brug. Din karrierefremgang hos Meta afhænger nu delvist af, hvor effektivt du udnytter AI-værktøjer, og de målbare forretningsresultater, der følger med.
Hvad koster tokenmaxxing en virksomhed?
De direkte omkostninger kan løbe op hurtigt. En enkelt fuldtidsagent kan forbruge 700 millioner tokens om ugen. Med API-priser på $3-6 pr. million tokens for frontier-modeller kan det betyde tusindvis af kroner om måneden pr. medarbejder. Dertil kommer de indirekte omkostninger ved spildt tid og ressourcer på AI-brug, der ikke skaber reel værdi.
Hvordan ved jeg, om min virksomheds AI-forbrug skaber værdi?
Stil dig selv tre spørgsmål: Er tiden fra idé til produktion kortere? Bruger dine medarbejdere mere tid på arbejde, der kræver dømmekraft, og mindre på rutineopgaver? Leverer I ting, der tidligere var umulige med jeres nuværende bemanding? Ingen af disse spørgsmål besvares af et token-leaderboard.
Er tokenmaxxing relevant for danske virksomheder?
De fleste danske virksomheder tokenmaxxer ikke bevidst, men mange oplever en lignende dynamik: AI-værktøjer bliver rullet ud uden klare KPI'er, og forbruget vokser uden at nogen måler effekten. Risikoen er den samme, nemlig at man forveksler AI-aktivitet med AI-værdi.
Vi har set denne film før
Tokenmaxxing er ikke et nyt fænomen, bare en ny forklædning. I starten af 2000'erne målte nogle softwarevirksomheder udviklerproduktivitet i antal linjer kode. Metrikken var nem at tracke og føltes meningsfuld. Men den skabte perverse incitamenter: udviklere skrev opsvulmet, unødvendigt kompleks kode for at se produktive ud. De bedste ingeniører, dem der løste problemer med færre linjer, så pludselig dovne ud.
Derefter kom story points i den agile bevægelse. Samme dynamik. Teams begyndte at inflate estimater, så de kunne "levere" flere points pr. sprint. Velocity-grafen gik op, men den reelle produktivitet fulgte ikke med. Metrikken ændrer sig, men fejlen er den samme: at forveksle et input med et output.
Med tokenmaxxing er det tokens, der er blevet den nye proxy for produktivitet. Og ligesom linjer kode og story points kan tokens games: kør meningsløse prompts, genprocesser data unødvendigt, lad agenter køre i loops. Leaderboardet går op, men ingen verificerer, om outputtet er godt, eller om det overhovedet er nyttigt.
Som en erfaren engineering-leder formulerede det: de virksomheder, der vinder den agentiske æra, bliver ikke dem, der brændte flest tokens af. Det bliver dem, der omsatte tokens til resultater med mindst spild og tydeligst formål.
De skjulte omkostninger ved ukontrolleret AI-forbrug
Tokenmaxxing kan være direkte dyrt. Store prompts, gentagne tool-skemaer, lange samtalehistorikker og høj reasoning-indsats lægger sig oven på hinanden. Mange AI-teams bliver overraskede, når regningen kommer, fordi spildet ikke altid er synligt i en prototype. De største omkostningsdrivere gemmer sig ofte i gentaget kontekst snarere end i synligt output.
De typiske syndere inkluderer: oversized system prompts, der forsøger at kode enhver policy og edge case ind i én gigantisk instruktionsblok. Fuld historik-replay, hvor hvert samtaleskridt gensender alle tidligere beskeder. Bloated tool-skemaer, der sendes med hver forespørgsel, selv når kun ét eller to værktøjer er relevante. Ingen model-routing, så alle opgaver går til den dyreste model. Og unødvendig reasoning-indsats på simple opgaver som klassificering eller formatering.
Ifølge PYMNTS har det gennemsnitlige reasoning-tokenforbrug pr. organisation hos OpenAI's enterprise-kunder steget med cirka 320 gange på 12 måneder. Det indikerer, at mere intelligente modeller systematisk integreres i flere produkter og services, men det siger intet om, hvorvidt den integration skaber reel værdi.
For danske virksomheder, der typisk er mere omkostningsbevidste end Silicon Valley-startups, er risikoen en anden variant: Shadow AI. Medarbejdere bruger AI-værktøjer uden central styring, og forbruget vokser uden at nogen har overblik over hverken omkostninger eller datasikkerhed.
Få styr på jeres AI-omkostninger
Vi hjælper jer med at opbygge en AI-strategi, der måler resultater, ikke forbrug. Kontakt os for en uforpligtende snak.
Signal maxxing: det rigtige alternativ
Pointen er ikke at minimere tokens for enhver pris. Det handler om at bruge dem, hvor de skaber målbar værdi. I stærke AI-systemer vokser tokenforbruget med opgavekompleksiteten, ikke med vane, usikkerhed eller forfængelighed. Det er forskellen mellem intentionel skalering og tokenmaxxing.
Den bedre tilgang hedder signal maxxing: behold den information, der er vigtig. Fjern det, der ikke er. Match modellen til opgaven. Justér reasoning-indsatsen. Cache de statiske dele. Opsummér resten. Og mål resultater, ikke aktivitet. En simpel klassificeringsopgave behøver ikke en frontier reasoning-model. Den kan klares af en mindre, billigere model. Planlægning, kodning og flertrinsanalyse kan reserveres til de stærkere modeller. Denne tilgang, ofte kaldet model routing, er et af de mest effektive modtræk til tokenmaxxing.
For virksomheder betyder det, at AI-roadmappen bør indeholde klare KPI'er, der er bundet til forretningsresultater: tid sparet, fejlrate reduceret, omsætning pr. medarbejder, kundetilfredshed. Ikke tokens forbrugt. Når resultatet er klart, bliver token-optimering meget nemmere.
Danske virksomheder har faktisk en fordel her. Den pragmatiske tilgang til teknologi, der kendetegner dansk erhvervsliv, er præcis det rigtige modgift mod tokenmaxxing. Start med at spørge: hvilket problem løser vi? Og mål derefter, om AI løser det bedre end alternativet. Det er AI-transformation i praksis, ikke i teaterform.