AI-blog | Guides & værktøjer fra førende AI-konsulenter | Consile

Vores Agent har et monopol af Agenter til sin rådighed for content

Skrevet af Martin Mensbo Christiansen | Apr 8, 2026 5:48:54 PM

Hvad hvis dine bedste AI-eksperter kunne gennemgå din tekst samtidigt, på få sekunder, og give dig samlet feedback? Det er ikke science fiction. Det er hvad vores egen Debate MCP, et multi-agent system er bygget til og den skal producere content i høj kvalitet uden at vente dage på feedback. Vi sender teksten ind, seks specialister debatterer den parallelt, og vi får en rapport på under to minutter.

Og det koster mindre end en kop kaffe!

I denne artikel dykker vi helt ned i hvordan vores egen Debate MCP virker, hvad den koster, og hvorfor det ændrer måden vi arbejder med content på. Vi viser dig et live-eksempel af systemet i aktion, gennemgår den tekniske arkitektur bag det hele, og forklarer de tre review-typer du kan køre alt efter behov. Hvis du arbejder med content-produktion, SEO, conversion optimization eller AI-genereret tekst, skal du læse til enden.

 

Problemet: Feedbackflaskehalsen i contentproduktion

 

Det typiske danske marketing-team består af tre til fem personer.
De skal producere blog-artikler, landingpages, emails, og sociale medier-indlæg hver eneste uge. Når en artikel er skrevet skal den igennem kvalitetssikring:

  • Er grammatikken i orden?

  • Passer det med vores SEO-strategi?

  • Bliver læseren overbevist til at klikke?

  • Er fakta tjekket?

  • Virker det på mobiltelefonen?

    Hver specialist der skal give feedback sidder i møder, har deres egen inbox, og svarer måske først næste dag eller dag efter det.

Resultatet er en artikel som kunne være live på mandag ender med at være live først på fredag.
Fem dage hvor ingen trafik kommer ind. Fem dage hvor konkurrenterne kan være nået længere.
Og arbejdsflowet bliver splittet op i så mange små processer at ingen helt ved hvem der venter på hvem.
En marketing-chef skal koordinere mellem den medarbejder der kender grammatikken, SEO-specialisten, CRO og faktachecker. Hver person giver feedback på deres egen måde. Nogle skriver lange noter. Nogle sender inline-kommentarer. Nogle glemmer helt at svare tilbage.
Det bliver til en intern debat om hvem der har ret, og indholdet sidder og venter.

Problemet er værre hvis du bruger generativ AI til at skrive din content.
Du sender en artikel gennem ChatGPT eller Claude, men så skal den stadig gennem samme lange kvalitetssikring. AI har lavet ord-valget, men mennesker skal stadig sikre at tonen passer, at tallene er rigtige, at det lever op til jeres brand-guidelines, og at det rent faktisk får folk til at handle.
Du får ikke det bedste ud af AI-værktøjerne hvis du skal vente tre til fem dage på menneskelig feedback.

Eller, værre endnu: Du kører content live uden ordentlig feedback fordi tiden ikke tillader det.
Du håber på det bedste. Og så opdager dine læsere fejlene, eller de klikker ikke fordi det ikke er overbevisende nok, eller søgemaskinen rangerer det ikke fordi det mangler de rigtige søgeord.

Den manglende feedback bliver til tabt trafik, tabt konvertering, tabt omsætning. Og det kunne have været undgået hvis du bare havde kunnet få fem specialister til at gennemgå teksten på samme tid i stedet for sekventielt.

 

Panelet: 6 specialister, 4 AI-udbydere, én samlet vurdering

 

Vores Debate MCP arbejder med et fast panel på seks specialister. Hver specialist er konfigureret med et bestemt foundation model, et navn, en rolle, og instruktioner om hvad de skal fokusere på når de læser din tekst.

De er ikke mennesker.
De er AI-agenter baseret på de bedste tilgængelige modeller, og de har hver især en helt specifikke opgave.

Dansklæreren kommer først.
Den er bygget på Claude Sonnet med en temperaturindstilling på 0,2 hvilket gør den meget præcis og konsistent. Den læser efter stavefejl, grammatikfejl, kommatering, ordvalg, og tone.
Den forstår dansk og er trænet på dansk sprognævn, og den ved hvad der gør at en dansk læser bliver grebet af teksten.
Den fokuserer på sproget, ikke på betydningen.
Hvis der er en stavefejl eller et dårligt komma, finder den det.

SEO-specialisten sidder på en Gemini 2.5 Flash med temperaturindstilling på 0,3. Den kigger på søgeord-densitet, overskrifter, metabeskrivelse, intern og ekstern link-struktur, og hvor godt teksten svarer til søgeintent. Den ved hvad Google søger efter, og den kan foreslå hvor du skal placere vigtige ord for at rangere bedre uden at det bliver unaturligt.
Den giver også råd om længde på artiklen, læsbarhed, og struktur fra et SEO-perspektiv.

Konverteringsspecialisten bruger GPT-4o med temperaturindstilling på 0,4 fordi den skal være mere kreativ i sine forslag.
Den spørger:
Siger vi noget der gør at læseren vil klikke på knappen?
Er call-to-action tydelig nok?
Er det emotionelt overbevisende?
Mangler vi sociale bevis, eller urgency, eller eksempler som gør at mennesker vil tage næste skridt?

Den fokuserer på resultater: Skal denne tekst føre til et køb, en henvendelse, en anmeldelse eller en klik, og gør den det?

Målgruppeanalytikeren bruger også Claude Sonnet men med temperaturindstilling på 0,4. Den læser som vores dedikerede målgruppe, altså dig.
Hvis vi sælger til startup-founders skal den læse som en startup-founder.
Hvis vi skriver til CFO'er skal den tænke som en CFO.

Den spørger:
Bliver denne person nået af budskabet?
Er sproget alt for teknisk eller alt for enkelt?
Mangler vi informationer som denne person ville have brug for?
Er vi troværdig i læserens øjne?

Google Guidelines Agenten bruger GPT-4o med temperaturindstilling på 0,2 fordi den skal være streng og regelbaseret. Den sikrer at indholdet lever op til Googles policies, at der er ingen skjult spam, at vi ikke lover mere end vi kan holde, at facts er dokumenteret, og at vi ikke bryder nogen af Googles webmaster-guidelines.
Den er som en intern compliance-officer for søgemaskinen.

Endeligt kommer vi til faktachekkeren som bruger Gemini 2.5 Pro med temperaturindstilling på 0,2. Den verificerer tal, datoer, citater, faglige påstande, og faktiske påstande.
Hvis artiklen siger at arbejdsløsheden er faldet fem procent vil den gøre eller se efter tal der understøtter det. Hvis der nævnes en persons titel eller rolle vil den være skeptisk hvis det ikke passer.
Den er paranoid på den gode måde!

Sammen repræsenterer disse seks specialister alle dimensioner af godt content i vores øjne. 
Sprog, søgemaskiner, mennesker, målgruppe, regler, og faktisk præcision.
Og de arbejder ikke sekventielt. De arbejder på samme tid.
Det som ville tage tre til fem dage med mennesker sker på 90-120 sekunder.

 

Sådan virker Debate MCP under motorhjelmen

 

Systemet bygger på MCP som er Model Context Protocol. Det er ikke en standard chatbot-interface hvor du sender tekst til ChatGPT. MCP er en protokol der tillader en central moderator at orkestrere (vi har stadig svært ved at finde på et bedre ord selv) sammen med flere ekstern AI-tjenester på samme tid.
I vores tilfælde er moderatoren Claude Opus der koordinerer alt.
Den sørger for at alle seks specialister får den samme tekst, at de ikke blander deres feedback, og at de bygger videre på hinanden hvis der er nødvendigt.

Når vi sender en artikel til Debate MCP sker følgende:

  1. Først deles artiklen op i mindre stykker hvis den er lang, fordi nogle modeller har længdebegrænsninger.
  2. Derefter tages et øjebliksbillede af alle seks specialister gennem deres respektive API'er: Anthropic til Claude-modellerne, OpenAI til GPT-4o, og Google til Gemini-modellerne. Alle seks modeller læser teksten parallelt. De gennemgår ikke hinanden. De giver ikke feedback til hinanden endnu. De læser ganske simpelt hver deres gangs.
  3. I anden runde bliver alle deres inputs samlet ind. Moderatoren laver en samlet rapport som siger: Dansklæreren fandt tre stavefejl. SEO-specialisten foreslår fem nye søgeord. Konverteringsspecialisten siger at call-to-action mangler urgency. Og så videre.
  4. Nu sker det interessante: Modeller kan kommunikere gennem tool calling som betyder at de kan kalde funktioner. De kan bede moderatoren om at spørge de andre specialister specifikt spørgsmål. Konverteringsspecialisten kan sige: "Spørg Dansklæreren om ordet 'mindblowing' passer til vores tone." Dansklæreren svarer. Der opstår en dialog mellem specialisterne.
  5. Dette gentager sig i omkring tre til fem runder afhængig af hvor meget de skal debattere. Systemet opdager selv når konsensus er nået når alle specialister er enige, eller når debatten er gået i stå. Der er også indbyggede safeguards så systemet ikke debatterer sig selv i døden.
  6. Efter debatterne er slut samler moderatoren alt sammen i en endelig rapport som du læser. En rapport som ikke siger "Dansklæreren siger X, SEO-specialisten siger Y", men som i stedet siger "Vi anbefaler følgende 14 ændringer fordi." Det er konsensusfeedback. Det er hvad alle seks specialister blev enige om efter at have debatteret internt.

 

En tekst før og efter panelet: Et live-eksempel

 

Lad os se dette i praksis.
Vi tog en ægte blog-artikel om AI transformationsprocesser, sendte den gennem vores Debate MCP, og kiggede på hvad der skete.
Artiklen var godt skrevet for at være en AI-genereret tekst. Den havde struktur. Den havde punkter. Men den manglede nogle ting som mennesker ville bemærke.

Dansklæreren fandt at ordet "mindblowing" blev brugt tre gange i samme artikel, og at afsnitsstruktur kunne være tydere med mere whitespace mellem hovednumre. SEO-specialisten oplagde at artiklen manglede ordet "transformering" selv selvom det var hovedemnet, og at der skulle mere fokus på de søgeord folk rent faktisk søger efter.

Konverteringsspecialisten påpegede at der var ingen call-to-action før helt til slutningen, og at læseren ville være helt ude af energi ved det tidspunkt. Målgruppeanalytikeren sagde at sproget var for akademisk for en LinkedIn-artikel, det skulle være mere inspirerende.

Google Guidelines Agenten flagede at påstanden "AI redder din virksomhed" var for absolut uden eksempler eller data.

Faktachekkeren bad om kilder på tre specifikke statistikker.

I alt fik vi 14 anbefalinger. Nogen var små (stavefejl, kommatering), nogle var større (omstrukturering, ny tone, nye søgeord, dokumentation). Vi implementerede alle 14. Resultatet var en artikel som var endnu mere troværdig, som rangerede bedre på Google, som konverterede bedre, og som læstes uden at være slumrende.

Alt dette tog 87 sekunder og kostede $0,14.

 

De tre review-typer: Quick, Content og Deep

 

Du behøver ikke altid alle seks specialister. Det ville være som at tage din direktør med når du skal købe rugbrød. Vores Debate MCP er tilpasset med med tre konfigurerede reviewprocesser der passer til forskellige situationer og budgetter.

Quick-review er det vi kører når du skal have et hurtigt blik på teksten. Her får vi kun de væsentligste problemer flagget: Stavefejl, store tonefejl, og helt indlysende mangler.

Der bruges kun Dansklæreren, Faktachekkeren og Google Guidelines Agenten. Vi får feedback på omkring 30 sekunder for omkring 60 øre ($0,08). Det er perfekt til at tjekke en produktbeskrivelse. Vi bruger det når tid er vigtigere end perfektion.

Content-review er det vi bruger til rigtig indhold som blog-artikler, landingpages, whitepapers.
Her bringes alle seks specialister ind.
Vi får den fulde debat, konsensusfeedback, og grundigt arbejde. Det tager omkring 90 sekunder og koster omkring en krone ($0,14). Det er dyrt sammenlignet med quick-review, men det er stadig mindre end hvad du ville betale et menneskeligt konsulent time-gebyr.
Og det er jo en kompleksitet som ville tage et menneske 3-5 timer at gennemgå ordentligt.

Deep-review er det tungeste. Her kører vi flere iterationer af debat.
Vi giver specialisterne mere kontekst om vores virksomhed, målgruppe, og succeskriterier. Systemet debatterer mere grundigt.
Vi får anbefalinger ikke bare på hvad der er forkert, men også på hvad der kunne forbedres radikalt. Det tager omkring 2-3 minutter og koster omkring to kroner ($0,25).

Vi bruger det på vigtige dokumenter, på content der skal skabe meget trafik, på kampagner som skal konvertere. Det er vores interne fuld-service-udgave.

Alle tre tilgange lærer fra hinanden. Hvis vi kører quick-review på 10 artikler får systemet bedre læring ved hvad der er vigtigst for os over tid samt den lærer vores stil.

Det vil sige = deep-review fra i dag påvirker quick-reviews fra i morgen fordi systemet bygger op erfaringer.

 

 

 

5 konkrete måder du kan bruge Debate MCP i dag

 

Hvis du arbejder med content på nogen som helst måde er der mindst fem konkrete use-cases hvor Debate MCP kan spare dig tid og penge. Den første er blog-optimering. Du skriver artikler, du sendte dem gennem Debate MCP før de går live, og du får alle de små og store problemer løst inden verden ser dem. Ingen dårlige SEO-strategier. Ingen stavefejl. Ingen halvhjertede call-to-actions. En artikel der fra dag ét er optimeret for mennesker og søgemaskiner.

Den anden er landingpage-konvertering. Hvis du sælger noget handler det om at få folk til at klikke på en knap. Konverteringsspecialisten i dit panel vil give dig råd om hvor urgency mangler, hvor troværdighed ikke er der, hvor copy er for svag. En landingpage gennem Debate MCP bliver ikke bare bedre skrevet, den bliver salgsstyrket. Og det sker på få minutter i stedet for uger med A/B-test og revidering.

Den tredje use-case er email-kampagner. Email er hvor hvor enten super-personlig og konverterer, eller hvor det er ignoreret. Mange virksomheder sender emails som aldrig blev læst gennem ordentlig review. Debate MCP kan gennemgå din email-kampagne: Passer subjecten til hvad der kommer i mailen? Kan man læse det på mobiltelefonen? Mangler der links? Er call-to-action tydelig? Og så videre.

Den fjerde er kvalitetssikring af AI-genereret tekst. Hvis du bruger ChatGPT eller Claude til at skrive indlæg betyder det ikke at de er klar til at blive publishet. De har stil som ikke passer til dit brand, de kan have fejl, de mangler kilder, de mangler personlighed. Debate MCP kan køre en hurtig gennemgang af alt hvad AI producerer før det mennesker læser det. Du får det bedste af AI uden det værste.

Og den femte er træning. Hvis du har en junior-skribent eller intern der lærer at skrive kan Debate MCP være deres lærer. De kan skrive noget, sende det gennem systemet, og få feedback fra seks forskellige vinkler. Det accelererer læringskurven drastisk. De lærer hvad der skal til for at skrive godt indhold ikke fra en Udannelse der tager år, men fra konkrete feedback på deres eget arbejde.

 

Den tekniske arkitektur bag systemet

 

Hvis du er teknisk interesseret eller skal pitche det til din chef er her hvordan systemet er bygget op. Hele systemet er skrevet i TypeScript.
Vi bruger MCP SDK fra Anthropic som basis, og derover har vi bygget en Express v5 server som orkestrerer (Ja det var det dumme ord igen) alt.
Hver af de seks specialister kommunikerer gennem deres egne API-forbindelser: Anthropic for Claude-modellerne, OpenAI for GPT-4o, Google for Gemini og så har vi faktisk også en Lokal Ollama med Gemma 4 31B kørende som agent til forretningsdata vil holder bag lukkede døre.

Når vi sender tekst til systemet kommer det ind gennem en REST-API. Vi bruger Server-Sent Events (SSE) med ngrok for at holde forbindelsen åben så vi kan se progres i realtid.
Vi får at vide når Dansklæreren har læst teksten, når SEO-specialisten er gået i gang, hvornår debat-runden starter, og hvornår resultat er klar.
Det er ikke et sort hul hvor vi venter på svar.

Authenticering sker gennem OAuth PKCE-flow som er mere sikkert end at gemme API-nøgler direkte. Debathistorie lagres i SQLite som vi selv hoster og den er ikke på cloud. Teksten bliver sendt direkte til Anthropic, OpenAI, og Google, og så lagrer vi kun debat-historikken lokalt. Specifikke personas og deres instruktioner gemmes som YAML-frontmatter i personligt konfigurationssystem, dedikeret hos os.

Bagved har vi bygget "Annemette og Monopolet" som er vores dashboard.
Det er interface hvor vi kan se alle tidligere reviews, hvor vi opsætter nye personas, hvorvi kan konfigurere hvilke specialister der skal køres for hver review-type, og hvor vi kan se metriks om hvad systemet giver af værdi over tid.

AI Orchestrering sker gennem en hybrid arkitektur: Nogle dele køres sekventielt (enkelt stavekontrol før personlig kontekst), andre køres fuldt parallelt (alle seks specialister læser samtidigt), og nogle køres i iterative runder (debat-fase).
Systemet opdager selv når det kan stoppe fordi der er nået konsensus, eller når debatten ikke giver nye input mere.

 

Hvad det koster, og hvorfor det er billigere end alternativet

 

Vi nævnte allerede priserne:
Quick-review omkring 60 øre, content-review omkring 1 krone, deep-review omkring 2 kroner. Men det er ikke hele historien. Billedet bliver mere interessant når vi sammenligner med hvad det ellers koster.
En freelance copywriter i Danmark tager mindst 300-400 kroner i timen.
En ordentlig gennemgang af en blog-artikel tager 30-60 minutter.
Det betyder omkring 200-300 kroner per artikel.
En SEO-konsulent tager mindst 1000 kroner i timen.
Et par timer på en artikel bliver hurtigt til 2000-3000 kroner.
En CRO specialist tager endnu mere.

Så hvis vi bruger mennesker til at gennemgå artikler er vi på omkring 500-3000 kroner per artikel alt afhængig af hvor meget feedback vi vil have.
Med Debate MCP bruger vi omkring 1 krone for en content-review.
Det betyder at der kan køres 500-3000 reviews før vi er nået det samme budget som en enkelt timeopgave med menneskelig ekspert.
Og her får viresultatet øjeblikkeligt.

Hvis vi kører content-review på 10 artikler per uge koster det omkring 10 kroner per uge.
Det er omkring 40 kroner per måned.
Vi sparer dig omkring 99 procent af omkostningerne.
Og systemet er tilgængeligt og kører når vi sover, når det regner, når folk er syge, 24-7.

 

Fremtiden for AI-drevet content review

 

Debate MCP er i vores første version af hvad vi tror vil blive et helt felt: AI-orkestreret quality assurance. Og industrien bevæger sig mod agentic AI hvor AI-modeller er ikke bare værktøjer men faktiske agenter der kan tage beslutninger, arbejde sammen, og formalisere resultater.

I stedet for at spørge ChatGPT skal kommatering være rigtigt, kan du have et system hvor ChatGPT og fem andre AI'er debatterer det og kommer til enighed, og så gør det automatisk.
Det er det som kommer.

AI-transformation handler ikke bare om at bruge ChatGPT til at skrive.
Det handler om at genopbygge dine workflows omkring hvad AI kan.
Det handler om at se at når feedback fra mennesker tager 3-5 dage kan du skifte til en proces hvor feedback tager 90 sekunder.
Det ændrer hvordan du kan producere indhold.
Du får mere lektioner som producenter, dine cycles bliver hurtigere, dine artikler bliver bedre fra dag ét.

Det hele accelererer.

Hvad vi laver med Debate MCP er at vise hvad der er muligt når man tager AI alvorligt og bygger det ind i sine processer. Det er ikke et værktøj. Det er en helt genopfindelse af hvordan feedback-flaskehalsen i content-produktion kan løses.

Og når andre virksomheder ser hvad muligt kommer de til at spørge:
Hvorfor skal vi vente 3-5 dage på feedback?
Hvorfor skal vi betale 2000 kroner for en time med en konsulent når AI kan gøre det for 1 krone?