Offentlige myndigheder i Danmark investerer massivt i kunstig intelligens, og det ændrer spillereglerne for alle private leverandører, der arbejder med det offentlige. Hvis du leverer it, konsulentrådgivning eller serviceydelser til kommuner, regioner eller statslige institutioner, er spørgsmålet ikke længere, om AI påvirker din forretning, men hvor hurtigt du tilpasser dig de nye vilkår.
I denne artikel gennemgår vi de konkrete krav, som myndighedernes stigende brug af AI stiller til dokumentation, datasikkerhed og transparens hos leverandører. Du får et klart rammeværk til at gøre din virksomhed AI-parat, så du står stærkest, når det næste offentlige udbud lander på bordet.
Digitaliseringsstyrelsen og en række kommuner har det seneste år accelereret brugen af kunstig intelligens i sagsbehandling, borgerservice og intern administration. Fra automatiseret dokumenthåndtering til avancerede analysemodeller er AI blevet en fast del af den offentlige it-infrastruktur. For private leverandører betyder det, at kontrakterne ændrer karakter. Hvor man tidligere primært leverede software eller konsulentydelser efter en fastlagt kravspecifikation, skal man nu kunne indgå i et dynamisk samarbejde, hvor algoritmernes adfærd løbende skal monitoreres, justeres og dokumenteres.
Når en myndighed anvender et AI-system til at træffe eller understøtte beslutninger, der påvirker borgere, er kravene til sporbarhed og gennemsigtighed markant højere end ved traditionel it-drift. Det skyldes blandt andet EU AI Act, som fra august 2026 stiller bindende krav til højrisiko-AI-systemer, herunder dem der bruges i offentlig forvaltning. For leverandører betyder det, at man ikke længere kan nøjes med at levere et produkt og trække sig tilbage. Man skal dokumentere, hvordan systemet fungerer, hvilke data det er trænet på, og hvordan man sikrer kvalitet og retfærdighed i outputtet over tid.
Derudover har Datatilsynet annonceret skærpet tilsyn i 2026 med særligt fokus på store databehandlere og leverandører af cloud- og platformsløsninger. Hvis din virksomhed håndterer persondata på vegne af offentlige kunder, er I allerede i søgelyset. Tilsynet vil blandt andet se på, om databehandleraftaler er tilstrækkeligt opdaterede til at dække AI-specifikke risici som automatiseret profilering, uønsket dataaggregering og manglende samtykke til modeltrænende processer. Kombinationen af EU AI Act og det intensiverede danske tilsyn gør det afgørende at have styr på sine processer nu, ikke om et år.
For konsulenthuse, it-virksomheder og serviceorganisationer er budskabet klart: de leverandører, der proaktivt kan dokumentere ansvarlig AI-praksis, vinder udbuddene. De, der venter og håber, at kravene ikke rammer dem, risikerer at blive sorteret fra allerede i prækvalifikationen. Det er en grundlæggende forskydning i, hvad det vil sige at være en kvalificeret leverandør til det offentlige.
At blive AI-parat handler ikke om at anskaffe den nyeste teknologi, men om at opbygge organisatorisk modenhed på fire centrale områder. Den første søjle er dokumentation og sporbarhed. Offentlige kunder forventer, at du kan dokumentere hele livscyklussen for de AI-systemer, du leverer eller drifter. Det inkluderer træningsdata, modelvalg, testresultater og løbende performancemålinger. Uden denne dokumentation er det i praksis umuligt at bestå en prækvalifikation i et offentligt udbud, der involverer AI. Tænk på det som en kvalitetscertificering: ligesom ISO-standarder dokumenterer processer, skal din AI-dokumentation vise, at du har kontrol over algoritmernes adfærd fra udvikling til drift.
Den anden søjle er datasikkerhed og GDPR-compliance. Som leverandør til det offentlige håndterer du ofte følsomme personoplysninger. Med AI-systemer bliver kravene endnu skarpere, fordi algoritmerne potentielt kan afsløre mønstre i data, som ikke var tiltænkt, og som kan krænke borgernes privatliv. Databehandleraftaler skal specifikt adressere AI-brug, og du skal kunne garantere, at data ikke anvendes til at træne modeller uden eksplicit samtykke fra den offentlige kunde. Det gælder også underleverandører og tredjepartsmodeller, som din løsning eventuelt bygger på. En kæde er kun så stærk som det svageste led, og det gælder i høj grad for datasikkerhed i AI-økosystemer.
Den tredje søjle er transparens og forklarbarhed. Borgere har ret til at forstå, når AI indgår i beslutninger, der vedrører dem. Som leverandør skal du kunne levere forklaringer på, hvordan dine systemer når frem til et resultat, i et sprog som både sagsbehandlere og borgere kan forstå. Det er ikke kun et etisk spørgsmål; det bliver et juridisk krav under EU AI Act. AI Governance-rammer hjælper med at strukturere denne transparens, så den er konsistent og kontrollerbar på tværs af alle jeres leverancer. Det handler om at bygge tillid, og tillid er den vigtigste valuta i offentlig-private relationer.
Den fjerde søjle er kompetenceudvikling og AI Literacy. Det er ikke nok, at din tekniske afdeling forstår AI. Sælgere, projektledere og kundeansvarlige skal kunne føre kvalificerede samtaler om AI-risici, bias og lovgivning med offentlige indkøbere. Når en kommune spørger, hvordan I håndterer risikoen for AI-hallucinationer i jeres løsning, skal svaret komme prompte og troværdigt. Investér i bred AI-kompetence på tværs af organisationen, så alle led i leverancekæden kan håndtere AI-relaterede spørgsmål med faglig sikkerhed.
I praksis betyder det også, at du som leverandør skal kunne fremvise en sammenhængende politik for, hvordan I håndterer generativ AI i jeres egne arbejdsprocesser. Bruger jeres konsulenter AI til at skrive tilbud, analysere data eller generere kode? Så skal den brug være dokumenteret og styret, præcis som I forventer det af de løsninger, I leverer til kunderne. Troværdighed starter hjemme, og offentlige kunder gennemskuer hurtigt, hvis jeres interne praksis ikke matcher det, I lover i et tilbud.
Samlet set hænger de fire søjler uløseligt sammen. Dokumentation uden kompetence er papirarbejde uden substans. Transparens uden datasikkerhed er et løfte, man ikke kan holde. Den virksomhed, der mestrer alle fire områder, opbygger en helhed, som offentlige indkøbere kan stole på, og som gør samarbejdet trygt for begge parter.
Det første skridt er at gennemføre en intern AI-audit. Kortlæg alle de steder i jeres leverancer og interne processer, hvor AI allerede bruges, eller hvor det planlægges implementeret. Mange virksomheder opdager, at de har Shadow AI i form af medarbejdere, der bruger AI-værktøjer uden formel godkendelse. Denne uautoriserede brug udgør en risiko, fordi data potentielt deles med eksterne AI-tjenester uden kontraktlig dækning. Kortlægningen er fundamentet for alt det efterfølgende arbejde, og den giver ledelsen et realistisk billede af, hvor organisationen faktisk står.
Dernæst bør du udarbejde en AI Roadmap, der konkretiserer, hvordan virksomheden bevæger sig mod fuld AI-parathed over de næste 6 til 12 måneder. Roadmappen skal indeholde milepæle for dokumentationsstandarder, sikkerhedscertificeringer, kompetenceudvikling og procesoptimering. Sæt realistiske tidsfrister, der tager højde for, at centrale dele af EU AI Act træder i kraft i august 2026. En god roadmap er ikke et statisk dokument; den skal opdateres kvartalsvis i takt med, at lovgivning, teknologi og kundernes forventninger udvikler sig.
Et tredje vigtigt trin er at etablere en AI Governance-struktur. Det kan være et dedikeret AI-udvalg eller en AI-ansvarlig, der sikrer, at alle AI-initiativer vurderes for risiko, bias og lovmæssig overensstemmelse, inden de sættes i produktion. OECD anbefaler, at både offentlige og private organisationer integrerer AI-governance i eksisterende risikostyringsprocesser fremfor at opbygge parallelle strukturer. Det gør implementeringen lettere og sikrer, at AI-governance ikke ender som et isoleret compliance-projekt, men som en integreret del af jeres forretningsdrift.
Det fjerde trin handler om at opbygge et bibliotek af skabeloner og standarddokumentation, som jeres teams kan bruge, når de svarer på udbud eller indgår kontrakter med offentlige kunder. Det kan inkludere en standard AI-konsekvensanalyse, en skabelon til bias-testrapporter, en oversigt over jeres AI-governance-processer og en FAQ om, hvordan I håndterer persondata i AI-sammenhænge. Jo mere struktureret dokumentation I har klar på forhånd, desto hurtigere og mere professionelt kan I respondere på nye udbudsmuligheder.
Afslutningsvis bør I som femte trin teste jeres parathed i praksis. Gennemfør en intern simulering, hvor I behandler et fiktivt offentligt udbud med AI-specifikke krav. Lad teamet besvare spørgsmål om datasikkerhed, modelforklarbarhed og governance-processer under realistiske betingelser. Denne øvelse afslører huller i jeres forberedelse, længe før de koster jer et reelt udbud. Mange virksomheder opdager først under en simulering, at deres dokumentation mangler konkrete detaljer, eller at medarbejdere uden for it-afdelingen ikke kan redegøre for virksomhedens AI-principper.
Det er fristende at se de nye krav som endnu en administrativ byrde oven i den eksisterende compliance-stak, men de smarteste leverandører vender perspektivet. Virksomheder, der tidligt investerer i AI Transformation og systematisk dokumentation, opbygger en konkurrencefordel, der er svær at kopiere på kort tid. Når du kan møde op til et udbudsmøde med en færdig AI-governance-politik, dokumenterede testresultater og certificerede medarbejdere, skiller du dig markant ud fra konkurrenter, der stadig skal i gang med de mest basale forberedelser.
Erfaringerne fra internationale AI-indkøbsrammer viser, at offentlige indkøbere i stigende grad vægter leverandørens AI-modenhed på linje med pris og funktionalitet. World Economic Forum har udgivet retningslinjer for AI-indkøb i den offentlige sektor, og flere danske kommuner er begyndt at inkludere AI-specifikke evalueringskriterier i deres udbudsmaterialer. Den leverandør, der kan svare fyldestgørende på spørgsmål om bias-håndtering, dataminimering og algoritmisk transparens, har en strukturel fordel, som ikke forsvinder med næste priskonkurrence.
Desuden åbner AI-parathed for helt nye forretningsområder. Offentlige institutioner har brug for partnere, der kan hjælpe med at implementere ansvarlig AI i praksis, ikke kun i politik og hensigtserklæringer. Det kan være alt fra at opbygge RAG-løsninger, der sikrer faktuelt korrekte svar i borgervendte chatbots, til at designe governance-strukturer, der lever op til EU AI Act. Det kan også handle om at hjælpe myndigheder med at evaluere LLM-baserede værktøjer til intern videndeling eller at opbygge machine learning-modeller til prædiktiv sagsbehandling. Leverandører, der positionerer sig som AI-rådgivere med dokumenteret erfaring og solid governance, kan udvide deres forretning betydeligt i de kommende år.
Et vigtigt perspektiv er også, at AI-parathed ikke er et engangsprojekt. Teknologien udvikler sig hurtigt, lovgivningen tilpasses løbende, og de offentlige kunders forventninger stiger i takt med deres egen AI-modenhed. De mest succesfulde leverandører opbygger derfor en kultur for løbende læring og tilpasning, hvor AI-governance er en integreret del af forretningsdriften og ikke blot en årlig compliance-øvelse. Det kræver ledelsesforankring, dedikerede ressourcer og en villighed til at investere i noget, der ikke nødvendigvis giver afkast i næste kvartal, men som sikrer virksomhedens konkurrenceevne på den lange bane.
Konklusionen er enkel: AI-parathed er ikke en fremtidig ambition, men et nutidigt konkurrenceparameter. De leverandører, der handler nu, sikrer sig en plads ved bordet, når det offentlige Danmark for alvor skalerer sin brug af kunstig intelligens. Start med at kortlægge jeres nuværende position, byg en AI Roadmap, og investér i de kompetencer og processer, der gør jer til den oplagte partner for offentlige AI-projekter. Har du brug for sparring om, hvor din virksomhed står, er du altid velkommen til at kontakte os for en uforpligtende samtale om jeres vej mod AI-parathed.