Skip to content
Search icon

Den glemte ESG-dimension: Er jeres AI bæredygtig?

Når virksomheder investerer i kunstig intelligens, handler samtalen næsten altid om produktivitet, automatisering og konkurrencefordele. Men der er én dimension, som de fleste overser fuldstændigt: Hvad koster jeres AI egentlig for klimaet, og hvad betyder det for jeres ESG-profil?

Ifølge DR estimerer Det Internationale Energiagentur, at datacentres globale energiforbrug fordobles fra 2022 til 2026. Det svarer til hele Japans samlede strømforbrug. For danske virksomheder, der ønsker at tage ESG seriøst, er det ikke længere nok at kigge på CO₂-udledningen fra transport og produktion. AI-forbruget skal med i regnestykket, og det er her, begrebet "bæredygtig AI" kommer ind i billedet.

 

AI sluger mere energi, end du tror

 

De store sprogmodeller (LLM'er), der driver værktøjer som ChatGPT, Copilot og lignende, kræver enorme mængder beregningskraft bare for at fungere. Hver gang du stiller en forespørgsel til en generativ AI, forbruger den mellem 2,5 og 5 gram CO₂. Det lyder måske ubetydeligt i sig selv, men ganget med milliarder af daglige forespørgsler verden over løber det hurtigt op til et CO₂-aftryk, der matcher hele industrisektorer.

Problemet starter allerede ved træningen af modellerne. En enkelt træningskørsel af en stor foundation model kan udlede lige så meget CO₂ som fem personbiler i hele deres levetid. Og det stopper ikke der: Hver gang modellen bruges til inferens, altså til at generere svar, kører der servere i datacentre, som forbruger strøm døgnet rundt og kræver massive mængder vand til køling. Københavns Universitet har dokumenteret, at AI's samlede CO₂-aftryk vokser med en hastighed, der allerede nu gør det sammenligneligt med flytrafikken globalt.

MIT har desuden vist, at et generativt AI-træningscluster bruger syv til otte gange mere energi end en typisk serverbelastning. Det er ikke kun de store techgiganter, der bærer ansvaret. Enhver virksomhed, der bruger cloud-baserede AI-tjenester, bidrager indirekte til denne belastning. Når du bruger en AI-assistent til at skrive e-mails, analysere data eller generere rapporter, trækker du på infrastruktur, der forbruger betydelige mængder energi.

For danske virksomheder er det særligt relevant, fordi Danmark satser massivt på datacentre. Energistyrelsen forventer, at datacentre i 2030 vil stå for en femtedel af Danmarks samlede energiforbrug. Ifølge Information hæmmer det voksende energiforbrug fra AI-datacentre allerede nu Danmarks grønne ambitioner. Hvis din virksomhed bruger cloud-baserede AI-tjenester, bidrager I til den belastning, også selvom I ikke selv ejer et datacenter. Det gode er, at der faktisk er konkrete ting, du kan gøre ved det.

Vandkøling er et af de mest oversete aspekter af AI's miljøpåvirkning. Store datacentre bruger millioner af liter vand dagligt til at holde serverne kølige. Vandkøling absorberer varme op til 4.000 gange mere effektivt end luft og kan reducere energiforbruget med op til 40%, men det skaber en ny udfordring i regioner med vandknaphed. For virksomheder, der ønsker at forstå deres fulde miljøaftryk, er det vigtigt at kigge ud over CO₂ alene og også medtage vandforbrug og elektronisk affald fra udskiftning af hardware.

Der er dog også en positiv side af regnestykket. DK-AI påpeger, at kunstig intelligens i mange tilfælde kan mere end opveje sit eget energiforbrug ved at optimere processer i andre sektorer. AI bruges allerede til at forbedre energistyring i bygninger, optimere vindmølleplaceringer, reducere spild i produktionskæder og effektivisere transportruter. Pointen er ikke, at AI er enten godt eller skidt for klimaet. Pointen er, at det afhænger af, hvordan du vælger at bruge det, og hvilke beslutninger du træffer om modeller, infrastruktur og governance.

 

Hvor meget CO₂ udleder en typisk AI-forespørgsel?

En enkelt forespørgsel til en stor sprogmodel som ChatGPT udleder mellem 2,5 og 5 gram CO₂. Det afhænger af modellens størrelse, serverens placering og energikilden. Til sammenligning udleder en Google-søgning ca. 0,2 gram. Det betyder, at en AI-forespørgsel kan være op til 25 gange mere energikrævende end en almindelig søgning.

Kan mindre AI-modeller levere samme kvalitet med lavere energiforbrug?

Ja, i mange tilfælde. Teknikker som modelkomprimering og knowledge distillation kan reducere en models parameterantal med op til 40% og stadig bevare ca. 97% af dens præcision. For de fleste forretningsopgaver, som klassificering, opsummering og kundedialog, er en optimeret mindre model ofte tilstrækkelig og markant mere energieffektiv end de allerstørste sprogmodeller.

Hvad er Green AI, og hvordan adskiller det sig fra traditionel AI?

Green AI er en tilgang, der integrerer bæredygtighed i hele AI-livscyklussen: fra forskning og udvikling til drift og vedligeholdelse. Hvor traditionel AI primært optimerer for præcision og hastighed, fokuserer Green AI også på at minimere energiforbrug, CO₂-udledning og ressourcespild. Det handler om at vælge de rigtige modeller, træne dem smartere og køre dem på grøn infrastruktur.

 

 

Green AI: Sådan vælger du mere bæredygtige modeller

 

Begrebet "Green AI" dækker over en voksende bevægelse, der arbejder for at gøre kunstig intelligens mere energieffektiv og miljøvenlig. Ifølge Springer Nature handler det om at integrere bæredygtighed i hele AI-livscyklussen: fra valg af model og træningsdata til deployment og løbende drift. Det er ikke et niche-emne længere. Det er en strategisk nødvendighed for virksomheder, der vil fremtidssikre deres ESG-profil og samtidig høste fordelene af AI-teknologi.

Den første og mest effektive beslutning handler om modelvalg. Ikke alle opgaver kræver en model med hundredvis af milliarder parametre. Til mange forretningsopgaver, som kundehenvendelser, tekstklassificering, intern datanalyse og automatiseret rapportering, er en mindre, finjusteret model både hurtigere, billigere og markant mere energieffektiv. Teknikker som modelkomprimering og kvantisering kan ifølge ScienceDirect reducere energiforbruget med op til 50%, mens præcisionen stort set bevares. Det betyder, at du i mange tilfælde kan få næsten samme kvalitet af output til halvdelen af energiomkostningen.

En anden vigtig faktor er, hvordan modellerne trænes og vedligeholdes over tid. Traditionelt har AI-forskning fokuseret ensidigt på at opnå den højest mulige præcision, uanset hvad det koster i energi og beregningsressourcer. Green AI vender den logik på hovedet ved at spørge: Hvad er den mest effektive vej til et acceptabelt resultat for netop denne forretningsopgave? Det kan betyde, at man bruger machine learning-teknikker som transfer learning, hvor en forudtrænet model tilpasses til en specifik opgave med langt mindre data og beregningskraft, i stedet for at træne en helt ny model fra bunden. Det kan også betyde, at man vælger at genbruge eksisterende modeller og tilpasse dem med RAG (Retrieval-Augmented Generation), som giver modellen adgang til virksomhedens egne data uden at kræve en fuld genoptræning.

Derudover spiller valget af cloud-udbyder en væsentlig rolle for din virksomheds AI-klimaaftryk. Google Cloud, Amazon Web Services og Microsoft Azure har alle forpligtet sig til ambitiøse klimamål, men de konkrete resultater varierer betydeligt. Google sigter mod 100% kulfri energi i 2030, mens andre udbydere stadig er afhængige af fossile kilder i visse regioner. Som virksomhed kan du aktivt vælge at køre dine AI-workloads i datacentre, der drives af vedvarende energi, og dermed reducere dit klimaaftryk markant uden at gå på kompromis med ydeevnen.

 

ESG, regulering og AI: Derfor skal du handle nu

 

ESG-rapportering er ikke længere frivilligt for mange danske virksomheder. Med CSRD-direktivet (Corporate Sustainability Reporting Directive) skal stadig flere virksomheder dokumentere deres miljøpåvirkning i detaljer, herunder energiforbrug i digitale systemer og leverandørkæder. AI-forbrug er endnu ikke en eksplicit rapporteringskategori, men eksperter forventer, at det kun er et spørgsmål om tid, før AI governance og energiforbrug fra kunstig intelligens bliver en integreret del af standardkravene. Virksomheder, der allerede nu begynder at måle og dokumentere deres AI-relaterede energiforbrug, vil have en markant fordel, når kravene skærpes.

EU AI Act, der trådte i kraft i 2024, fokuserer primært på risiko, transparens og forbrugerbeskyttelse. Men EU-Kommissionen ventes i 2026 at offentliggøre en energieffektivitetspakke specifikt rettet mod datacentre, ifølge Synergi. Det signalerer en klar regulatorisk retning: Virksomheder, der allerede nu tager stilling til deres AI-footprint, vil stå langt stærkere, når reguleringen strammes. De vil ikke blot overholde kravene, men vil have opbygget en intern kompetence og datakvalitet, som konkurrenterne skal bruge måneder eller år på at indhente.

For danske virksomheder, der arbejder med ansvarlig AI, er det en oplagt mulighed for at differentiere sig i markedet. Kunderne, investorerne og medarbejderne forventer i stigende grad, at teknologiinvesteringer tager hensyn til klima og miljø. En virksomhed, der aktivt kommunikerer om sit bæredygtige AI-forbrug, sender et stærkt signal om fremsynethed, troværdighed og ansvarlighed. Det er ikke kun et spørgsmål om compliance, det er en konkurrencefordel, der kan tiltrække både talent og kunder, som prioriterer bæredygtighed.

Samtidig viser Frontiers in AI, at virksomheder, der integrerer AI i deres ESG-strategi, opnår bedre resultater på tværs af alle tre dimensioner: miljø, socialt ansvar og god ledelse. AI kan nemlig også bruges proaktivt til at forbedre ESG-performance, eksempelvis ved at optimere energiforbrug i bygninger, forudsige vedligeholdelsesbehov for at minimere spild, eller effektivisere logistik for at reducere transportemissioner. Nøglen er at sikre, at de AI-løsninger, du implementerer, ikke selv bliver en del af problemet, men i stedet bidrager positivt til virksomhedens samlede klimaregnskab.

Det er også værd at bemærke, at bæredygtig AI ikke nødvendigvis er dyrere. Tværtimod: Mange af de teknikker, der reducerer energiforbrug, reducerer også driftsomkostninger. Mindre modeller koster mindre at køre. Færre unødvendige API-kald reducerer din cloud-regning. Smartere caching og prompt engineering sparer både energi og penge. Bæredygtighed og omkostningseffektivitet er i praksis to sider af samme mønt, og det gør business-casen for grøn AI stærkere end nogensinde.

Gør jeres AI-strategi bæredygtig

Vi hjælper jer med at vælge, implementere og optimere AI-løsninger, der performer uden at koste klimaet. Lad os tage en snak om jeres muligheder.

 

 

Fem konkrete skridt til en grønnere AI-praksis

 

Det første skridt er at kortlægge jeres nuværende AI-forbrug systematisk. Mange virksomheder har simpelthen intet overblik over, hvor mange AI-kald der foretages dagligt, hvilke modeller der bruges, og hvor energien kommer fra. Start med at lave en grundig opgørelse: Hvilke AI-tjenester bruger I på tværs af organisationen? Hvem bruger dem, og til hvilke opgaver? Hvor ofte køres der forespørgsler, og hvad er den gennemsnitlige kompleksitet? Det giver jer et solidt baseline, som I kan måle fremskridt ud fra, og det afdækker ofte overraskende mønstre i forbruget.

Det andet skridt er at matche model til opgave med omhu. En deep learning-model med hundredvis af milliarder parametre er overkill til langt de fleste daglige forretningsopgaver. Overvej grundigt, om en mindre, specialiseret model kan løse opgaven lige så godt eller endda bedre inden for jeres specifikke domæne. Mange cloud-udbydere tilbyder nu "light"-versioner af deres modeller, der bruger en brøkdel af energien. For interne opgaver som datasøgning, klassificering og rutineanalyser kan machine learning-modeller, der er trænet specifikt til jeres data, ofte overgå generelle store sprogmodeller i både præcision og hastighed.

Det tredje skridt handler om infrastruktur og arkitektoniske valg. Vælg cloud-regioner, der drives af vedvarende energi, og undersøg, om jeres udbyder tilbyder dedikerede "green compute"-zoner. Implementer intelligent caching, så identiske eller meget lignende forespørgsler ikke sendes til modellen igen og igen. Brug prompt engineering til at skrive mere præcise forespørgsler, der kræver færre gennemkørsler og dermed mindre energi. Overvej også, om dele af jeres AI-workload kan køres lokalt med hardware, der er optimeret til energieffektivitet, frem for at sende alt til skyen.

Det fjerde skridt er at inkludere AI-forbrug i jeres ESG-rapportering og bæredygtighedskommunikation. Selvom det endnu ikke er lovpligtigt at rapportere specifikt på AI-energiforbrug, sender det et stærkt signal til interessenter, partnere og kunder, at I tager ansvaret seriøst. Dokumenter jeres forbrug kvantitativt, sæt ambitiøse men realistiske reduktionsmål, og kommuniker åbent om jeres fremskridt. Det skaber troværdighed og positionerer jer som en virksomhed, der tænker langsigtet. Det femte og sidste skridt er at opbygge en intern kultur for AI-literacy, hvor medarbejderne forstår, at hvert AI-kald har en reel pris for miljøet, og at bevidst brug er en naturlig del af virksomhedens bæredygtighedsindsats. Når hele organisationen forstår sammenhængen mellem AI og klima, bliver bæredygtige valg en integreret del af hverdagens beslutninger, fra den enkelte medarbejder til ledelsens strategiske prioriteringer. Det handler ikke om at bruge mindre AI, men om at bruge AI smartere. En AI-transformation, der tager højde for bæredygtighed fra starten, er ikke bare bedre for klimaet. Den er også bedre for bundlinjen, for brandet og for jeres langsigtede konkurrenceevne.