AI-blog | Guides & værktøjer fra førende AI-konsulenter | Consile

Deepfakes og tillid: Sådan beviser dit brand, at I er ægte

Skrevet af Martin Mensbo Christiansen | Mar 19, 2026 9:20:02 PM

AI kan nu producere videoer af jeres CEO, der er umulige at skelne fra ægte optagelser. Spørgsmålet er ikke længere, om nogen vil forfalske jeres indhold, men hvornår det sker, og om I er forberedt.

Når generativ AI kan skabe hyperrealistiske produktvideoer, kundecases og direktørtaler til næsten nul kroner, falder den oplevede værdi af digitalt indhold markant. For B2B-virksomheder, der lever af tillid og troværdighed i lange salgsprocesser, er det en strategisk udfordring, der kræver nye svar. I dette indlæg gennemgår vi, hvordan du som brand kan bevise, at I er ægte, og hvorfor det uperfekte måske bliver jeres stærkeste aktiv i kampen om kundernes tillid.

 

Deepfake-truslen er reel, og den vokser eksponentielt

 

Antallet af registrerede deepfake-sager er steget fra 500.000 til 8 millioner mellem 2023 og 2025. Det er en stigning på 900 procent, og den accelererer fortsat. Deepfakes er ikke længere forbeholdt statsstøttede hackere eller nichefora på det mørke internet. De er blevet en kommerciel tjeneste, "Deepfake-as-a-Service", hvor hvem som helst kan bestille en overbevisende forfalsket video for få hundrede kroner. Teknologien er blevet demokratiseret, og det har fundamentalt ændret trusselsbilledet for enhver virksomhed med en digital tilstedeværelse.

For B2B-virksomheder er konsekvenserne særligt alvorlige, fordi beslutningsprocesserne er lange og tillidsbaserede. Deloitte peger på, at 87 procent af virksomhedsledere ser AI-relaterede sårbarheder som den hurtigst voksende trussel mod digital tillid. Forestil dig en overbevisende video af jeres administrerende direktør, der annoncerer et opkøb, som aldrig finder sted, eller en forfalsket kundecase med navngivne virksomheder, der spreder sig på LinkedIn, inden nogen når at reagere. Skaden på jeres brand kan være uoprettelig, selvom I hurtigt dementerer.

Problemet forstærkes af, at mennesker er notorisk dårlige til at opdage deepfakes. Forskning fra 2025 og 2026 viser konsekvent, at vi kun er marginalt bedre end tilfældige gæt, når vi skal identificere højkvalitets-syntetisk indhold. Det betyder, at jeres kunder, investorer og samarbejdspartnere reelt ikke kan stole på deres egne øjne og ører, når de vurderer digitalt indhold. Det skaber et tillidsvakuum, som I aktivt skal fylde ud med verificerbare signaler og nye kommunikationsstrategier.

Markedet for deepfake-detektion forventes at vokse med 42 procent årligt og ramme 15,7 milliarder dollars i 2026. Det understreger, at vi har med et strukturelt skifte at gøre, ikke en forbigående trend. Virksomheder, der ignorerer denne udvikling, risikerer at miste troværdighed, ikke fordi de gør noget forkert, men fordi de ikke aktivt og synligt beviser, at de gør noget rigtigt. Passivitet er ikke længere en neutral position; det er en risikofaktor.

 

 

 

Kryptografiske vandmærker og C2PA: Jeres digitale ægthedsbevis

 

Den mest lovende teknologiske løsning på tillidsproblemet hedder C2PA (Coalition for Content Provenance and Authenticity). Det er en åben standard, der dokumenterer, hvem der har skabt et stykke digitalt indhold, hvornår det blev skabt, og hvilke værktøjer der blev brugt undervejs. Tænk på det som et digitalt næringsstofmærkat for jeres content, der gør det muligt for modtageren at verificere ægtheden uden at skulle stole blindt på kilden. Standarden er udviklet i et samarbejde mellem teknologigiganter og mediehuse, der alle har en interesse i at bevare troværdigheden i det digitale økosystem.

Teknisk set bruger C2PA kryptografiske signaturer, hashing og Merkle-træer til at gøre metadata manipulationssikker. Hvis nogen ændrer indholdet, efter at credentials er tilføjet, vil systemet automatisk registrere og vise det. Det er vigtigt at bemærke, at Content Authenticity Initiative (CAI) præciserer, at systemet ikke bygger på blockchain, men på velafprøvede kryptografiske metoder, der er hurtigere og mere skalerbare. Over hundrede virksomheder, herunder Adobe, Microsoft, Google, Meta, BBC, Sony og OpenAI, er med i koalitionen, hvilket giver standarden den kritiske masse, der er nødvendig for bred adoption.

For en B2B-virksomhed betyder det i praksis, at I kan tilføje verificerbare Content Credentials til jeres vigtigste aktiver: produktvideoer, CEO-kommunikation, kundecases, whitepapers og pressemeddelelser. Jeres kunder og partnere får mulighed for med ét klik at bekræfte, at indholdet stammer fra jer og er uændret. I en verden, hvor tillid til digitalt indhold eroderer, er denne form for verificerbarhed en konkurrencefordel, der kun bliver mere værdifuld, jo mere syntetisk indhold der fylder på markedet. Det er en investering i jeres brands langsigtede troværdighed.

Implementeringen behøver hverken at være dyr eller kompleks. Værktøjer som Adobe Photoshop og Lightroom understøtter allerede Content Credentials direkte i softwaren. For video er løsninger som Truepic i hurtig vækst, og AI Governance-platforme integrerer i stigende grad verificeringsfunktionalitet. Start med jeres mest synlige og kritiske content, typisk det materiale, der bruges i salgsprocesser og på jeres hjemmeside. Udvid gradvist til nyhedsbreve, sociale medier og intern kommunikation. Nøglen er at begynde nu, før en deepfake-hændelse tvinger jer til at reagere under pres.

 

Zero-party data og det uperfekte som tillidsstrategi

 

Teknologi alene løser ikke tillidsproblemet. Parallelt med kryptografisk verificering skal I fundamentalt gentænke, hvordan I opbygger og vedligeholder relationer med jeres målgruppe. Her kommer to supplerende strategier i spil, der begge adresserer tillid fra den menneskelige side: zero-party data og bevidst uperfekt content.

Zero-party data er information, som kunden aktivt og frivilligt deler med jer, eksempelvis via surveys, præferencepaneler, interaktive værktøjer eller quizzer. I modsætning til tredjepartsdata, der indsamles bag kulisserne gennem tracking og cookies, sender zero-party data et tydeligt signal til kunden: "Vi spørger dig direkte, fordi vi respekterer dig som beslutningstager." I en verden, hvor 76 procent af forbrugerne er bekymrede over datahøstning, mens 70 procent stadig ønsker personalisering, er det en balance, der kun kan opnås gennem åben og ærlig dialog. Det er marketing som samarbejde i stedet for overvågning.

Den anden strategi er mere kontraintuitiv, men potentielt endnu mere kraftfuld: gør jeres indhold bevidst uperfekt. Når store sprogmodeller (LLM'er) kan producere poleret, fejlfrit indhold på sekunder, bliver det polerede paradoksalt nok synonymt med det maskinelle og derfor mistænkeligt. Rå behind-the-scenes-videoer, upolerede kundecitater optaget på en mobiltelefon, og live-optagelser med naturlige pauser og fejl signalerer ægthed netop fordi de er vanskelige at forfalske overbevisende med AI. Det er et paradoks, der vokser i styrke: jo bedre AI bliver til at producere perfekt indhold, jo mere troværdigt bliver det ufuldkomne og menneskelige.

Kombiner de to tilgange med fysiske events og møder, der af natur er svære at forfalske. Arrangementer som kundekonferencer, workshops og factory tours giver jeres stakeholdere en førstehåndsoplevelse, der ikke kan replikeres digitalt. I deepfake-æraen får disse analoge kontaktpunkter ny strategisk værdi som ankerpunkter for tillid. Tænk på jeres content-mix som en portefølje, hvor digitalt verificeret indhold, uperfekt menneskeskabt content og fysiske oplevelser sammen danner et troværdighedsnetværk, der er langt stærkere end nogen enkelt kanal.

Der er også en intern dimension, som ofte overses. Jeres medarbejdere er jeres mest troværdige ambassadører, netop fordi de er mennesker med individuelle stemmer og perspektiver. Employee advocacy-programmer, hvor medarbejdere deler deres egne oplevelser og indsigter på sociale medier, er vanskeligere at forfalske end poleret corporate content. Når en ingeniør fortæller om sit projekt i en upoleret LinkedIn-video, eller en kundesucces-manager deler en konkret sejr med en kunde, skabes der en autenticitet, som ingen deep learning-model endnu kan replikere troværdigt. Investér i at give jeres team værktøjerne og friheden til at kommunikere autentisk.

 

 

Fra tillidskrise til tillidsstrategi: Jeres konkrete handlingsplan

 

Tillid er ikke noget, der opstår af sig selv i deepfake-æraen. Den skal konstrueres bevidst, signal for signal, på tværs af alle kontaktpunkter. Forskere fra California Management Review beskriver det som en "Layer Coherence Triad", hvor autenticitet bygger på tre søjler: troværdighed, gennemsigtighed og omdømme. Alle tre skal arbejde sammen for at skabe det, de kalder "authority-first marketing", hvor jeres brand opbygger ægte autoritet gennem konsistente, verificerbare signaler i stedet for blot at claim det. Det kræver, at I erstatter det traditionelle "creative brief" med et "trust brief", der prioriterer autenticitet i enhver beslutning om content og kommunikation.

I praksis betyder det, at jeres AI-transformation ikke kun handler om at implementere nye værktøjer, der gør jer mere produktive. Den handler i lige så høj grad om at redesigne jeres kommunikationsstrategi med tillid som det bærende designprincip. Start med at kortlægge, hvilke af jeres indholdskategorier der er mest sårbare over for manipulation: CEO-kommunikation, kundecases, finansielle opdateringer, produktdemonstrationer og partnerskabsmeddelelser. Prioritér kryptografisk verificering via C2PA af disse aktiver først, og kommunikér åbent til jeres stakeholdere, at I gør det, og hvorfor.

Kombiner det teknologiske med det menneskelige og det regulatoriske. EU AI Act og den amerikanske Digital Authenticity and Provenance Act stiller i stigende grad krav til gennemsigtighed omkring AI-genereret indhold. Virksomheder, der proaktivt implementerer ansvarlig AI-praksis og indholdsverificering, vil stå stærkere, både i forhold til compliance og i kundernes øjne. Regulering er ikke en byrde; det er en mulighed for at differentiere jer fra konkurrenter, der venter med at handle, til de bliver tvunget.

Et konkret skridt er at opbygge en intern "tillids-taskforce", der arbejder på tværs af marketing, IT og juridisk. Denne gruppe bør kortlægge jeres mest sårbare indholdskategorier, definere verificeringsstandarder for hvert format og udvikle en responsplan for det scenarie, hvor jeres brand udsættes for en deepfake-angreb. Mange virksomheder har en krisekommunikationsplan for traditionelle PR-kriser, men få har en specifik plan for syntetisk medie-angreb. Den plan bør inkludere forudgodkendte dementiskabeloner, hurtig eskalering til sociale platforme og juridisk forberedelse til at kræve fjernelse af forfalsket indhold.

Overvej også at være åbne og transparente om jeres brug af AI i content-produktionen. Mange virksomheder bruger allerede AI-værktøjer til at skabe tekst, billeder og videoindhold. I stedet for at skjule det, kan I vende det til en styrke ved at mærke AI-assisteret indhold tydeligt og dermed signalere, at I har en bevidst og ærlig tilgang til teknologien. Den gennemsigtighed bygger tillid i sig selv, fordi den viser, at I ikke forsøger at narre nogen. Det er en af de mest undervurderede tillidssignaler i den nuværende medievirkelighed.

Tillid er blevet marketings mest værdifulde valuta. De brands, der investerer i at bevise deres ægthed nu, ved at kombinere kryptografisk verificering, zero-party data, uperfekt menneskeskabt content og fysiske oplevelser, vil have en afgørende fordel i de kommende år. Det handler ikke om at frygte AI, men om at bruge den ansvarligt og samtidig give jeres stakeholdere de redskaber, de behøver for at vide, hvad der er ægte. Jeres troværdighed er ikke noget, I kan tage for givet længere; den er noget, I skal bevise hver eneste dag. Kontakt os, hvis I vil have hjælp til at bygge jeres tillidsstrategi for deepfake-æraen.