Skip to content

AI Ordbog

Forstå de vigtigste AI-begreber. Fra strategi til teknologi.

Ingen begreber matcher din søgning.

En åben kommunikationsprotokol, der lader AI-agenter fra forskellige leverandører og frameworks samarbejde og udveksle information på tværs af platforme.

Læs mere →

En åben standard der standardiserer kommunikationen mellem kode-editorer og AI coding agents, så enhver agent kan fungere i enhver editor uden specialbyggede integrationer.

Læs mere →

En åben standard udviklet af IBM til agent-til-agent-kommunikation, der gør det muligt for AI-agenter fra forskellige systemer at samarbejde og udveksle information.

Læs mere →

En praksis, hvor konkurrenter systematisk udtrækker viden fra en AI-models API-svar for at træne deres egne modeller – uden tilladelse eller betaling.

Læs mere →

Systematisk test og kvalitetsvurdering af AI-agenter — måler om de løser opgaver korrekt, følger regler og håndterer fejl fornuftigt, før de sættes i produktion.

Læs mere →

En standardiseret oplysningsprofil for AI-agenter, der beskriver agentens kapaciteter, begrænsninger, tilladte handlingsdomæner og eskaleringsprocedurer.

Læs mere →

En sikkerhedsarkitektur der forbinder flere AI-agenter i et kontrolleret netværk med krypteret kommunikation og gensidige tillidspolitikker.

Læs mere →

En central fortegnelse over alle AI-agenter i en organisation — med metadata om hver agents formål, ejer, tilladelser, status og afhængigheder.

Læs mere →

Fænomenet hvor en virksomhed ender med hundredvis af AI-agenter uden samlet overblik — ofte med overlappende funktioner, uklare ejerskaber og manglende styring.

Læs mere →

Et netværk af mange uafhængige AI-agenter, der samarbejder decentralt om at løse komplekse, storskalerede opgaver.

Læs mere →

AI-systemer, der har en grad af handlekraft (agency) – de kan planlægge, træffe beslutninger og udføre handlinger autonomt for at nå et mål.

Læs mere →

En afdeling under Linux Foundation, der styrer åbne standarder for AI-agenter — herunder Model Context Protocol (MCP) og andre interoperabilitetsprotokoller.

Læs mere →

En webbrowser med indbygget AI-agent, der selvstændigt kan navigere websider, udfylde formularer og udføre flertrinsopgaver på brugerens vegne.

Læs mere →

En softwareudviklingsmetode, hvor AI-agenter selvstændigt skriver, tester og refaktorerer kode baseret på overordnede instruktioner fra en udvikler.

Læs mere →

En ny handelsform, hvor AI-agenter selvstændigt researscher, sammenligner og gennemfører køb på vegne af forbrugere eller virksomheder.

Læs mere →

Ingeniørdisciplinen bag design, opbygning og drift af AI-agentsystemer – fra arkitektur og orkestrering til test og overvågning.

Læs mere →

Disciplinen og de processer, der sikrer kontrol, overvågning og ansvarlighed på tværs af en virksomheds fleet af autonome AI-agenter.

Læs mere →

En betalingsform, hvor AI-agenter selvstændigt kan gennemføre køb, godkende transaktioner og håndtere betaling på vegne af en bruger eller virksomhed – med indbyggede sikkerhedskontroller.

Læs mere →

En avanceret form for RAG, hvor autonome AI-agenter styrer hele søge- og svarprocessen – fra at vælge datakilder til at validere og sammensætte det endelige svar.

Læs mere →

Skaleringsmetode hvor AI-agenter interagerer med andre agenter og værktøjer for at løse komplekse opgaver – en ny fase ud over traditionel træning og inferens.

Læs mere →

En åben sikkerhedsstandard fra Cloud Security Alliance, der anvender Zero Trust-principper til styring af autonome AI-agenter.

Læs mere →

En dynamisk sekvens af forretningsopgaver, der udføres af AI-agenter, som selv kan ræsonnere, træffe beslutninger og tilpasse sig ændringer undervejs – i modsætning til traditionel regelbaseret automatisering.

Læs mere →

Den operationelle disciplin for styring, overvågning og drift af AI-agenter i produktion – svarende til hvad DevOps er for software og MLOps for maskinlæring.

Læs mere →

En åben standard, der giver AI-kodningsagenter struktureret vejledning om, hvordan de skal arbejde i et specifikt softwareprojekt – som en README, men skrevet til AI.

Læs mere →

Paraplybetegnelsen for maskiner og systemer, der kan udføre opgaver, som normalt kræver menneskelig intelligens (f.eks. problemløsning og mønstergenkendelse).

Læs mere →

Et autonomt AI-system, der ikke bare svarer på spørgsmål, men aktivt kan udføre handlinger i andre softwaresystemer.

Læs mere →

Den grundlæggende arkitektur bag autonome AI-agenter: en cyklus af observation, ræsonnering, handling og ny observation, der gentages, indtil opgaven er løst.

Læs mere →

En platform eller markedsplads, hvor virksomheder kan finde, sammenligne og implementere specialiserede AI-agenter til specifikke forretningsopgaver.

Læs mere →

Mekanismer der gør det muligt for AI-agenter at huske information på tværs af sessioner og interaktioner, så de kan opbygge kontekst og blive mere personaliserede over tid.

Læs mere →

Fælles standarder og protokoller, der sikrer, at AI-agenter fra forskellige leverandører kan kommunikere sikkert og arbejde sammen.

Læs mere →

Værktøjer, der genererer komplette applikationer – med database, login og hosting – ud fra en naturlig sprogbeskrivelse, helt uden traditionel kodning.

Læs mere →

En sporbar log over beslutninger, modelversioner, træningsdata og ændringer, der gør det muligt at revidere et AI-system.

Læs mere →

En økonomisk begrundelse for et AI-projekt, der afvejer implementeringsomkostninger mod forventet ROI, tidsbesparelser og øget omsætning.

Læs mere →

Et tværfagligt team, der driver AI-strategi, standarder, governance og best practice på tværs af virksomheden.

Læs mere →

En AI-drevet digital assistent, der er designet til løbende, personlig interaktion – i modsætning til enkeltopgavebaserede chatbots.

Læs mere →

Den praktiske proces med at sikre, at en virksomheds brug af AI lever op til gældende love, regler og branchestandarder – herunder EU AI Act.

Læs mere →

Automatisering af indholdsproduktion (tekst, billeder, video) til SEO, sociale medier og e-mail marketing ved hjælp af generativ AI.

Læs mere →

Brugen af kunstig intelligens til at opdage, forebygge og reagere på cybertrusler – fra sårbarhedsscanning og trusselsanalyse til automatiseret incident response.

Læs mere →

En samlet infrastruktur, der automatiserer hele livscyklussen for AI-træningsdata – fra generering og augmentering til kvalitetskontrol og evaluering i stor skala.

Læs mere →

Anvendelsen af AI-modeller til at accelerere opdagelsen og udviklingen af nye lægemidler – fra molekyledesign til kliniske forsøg.

Læs mere →

Et datacenter specifikt designet og optimeret til at træne og køre AI-modeller i stor skala – en fabrik, der producerer intelligens.

Læs mere →

Disciplinen for at styre, optimere og forudsige omkostningerne ved en virksomheds AI-infrastruktur og -forbrug på tværs af cloud, on-premise og hybrid-miljøer.

Læs mere →

Et centralt infrastrukturlag, der sidder mellem virksomhedens applikationer og de AI-modeller, der bruges – og håndterer sikkerhed, overvågning, caching og adgangskontrol på tværs af flere modeller.

Læs mere →

Det interne regelsæt, framework og processer en virksomhed sætter op for at sikre, at AI udvikles og bruges etisk, sikkert og lovligt.

Læs mere →

En systematisk evaluering af, hvordan et AI-system påvirker mennesker, rettigheder og samfund – påkrævet under EU AI Act for højrisiko-systemer og i flere amerikanske delstatslovgivninger.

Læs mere →

En intelligent indbakke der bruger AI til automatisk at prioritere, opsummere og kategorisere beskeder – så brugeren ser det vigtigste først.

Læs mere →

Algoritmer der automatisk vurderer og rangerer indkomne leads, ofte integreret direkte i CRM-systemer som HubSpot.

Læs mere →

Det generelle vidensniveau i organisationen om, hvad AI kan og ikke kan, så ledere og medarbejdere kan træffe kvalificerede beslutninger.

Læs mere →

Brug af AI til at automatisere, optimere og tidsindstille marketingkampagner på tværs af kanaler.

Læs mere →

AI-systemers evne til at huske kontekst, præferencer og tidligere samtaler på tværs af sessioner – i modsætning til traditionelle stateless modeller.

Læs mere →

Den måde en virksomhed organiserer roller, ansvar, processer og teknologier omkring AI, så det bliver en integreret del af forretningen.

Læs mere →

Styring og koordinering af flere AI-komponenter og workflows (f.eks. RAG, agenter, API-kald) i én samlet løsning.

Læs mere →

En arbejdsform, hvor en AI-assistent skriver kode side om side med udvikleren – foreslår løsninger, finder fejl og genererer hele funktioner i realtid.

Læs mere →

En runtime-komponent der opfanger og evaluerer enhver AI-agenthandling mod foruddefinerede regler, før handlingen udføres.

Læs mere →

En vurdering af, hvor klar en virksomhed er til at implementere AI – målt på data, infrastruktur, kultur og kompetencer.

Læs mere →

Et kontrolleret testmiljø oprettet af en national myndighed, hvor virksomheder kan udvikle og afprøve innovative AI-systemer under myndighedstilsyn – før de lanceres på markedet.

Læs mere →

Processen med at oplære medarbejdere i nye kompetencer, fordi deres eksisterende opgaver helt eller delvist automatiseres af AI.

Læs mere →

Den systematiske proces med at identificere, vurdere og mitigere risici ved AI – fra datasikkerhed og bias til regulatoriske konsekvenser.

Læs mere →

En konkret plan, der beskriver virksomhedens AI-rejse over 12–36 måneder – fra pilotprojekter til fuld skalering.

Læs mere →

Foruddefinerede, genbrugelige AI-arbejdsgange, der automatisk udfører tilbagevendende opgaver som rapporter, opsummeringer eller dataopdateringer.

Læs mere →

Et softwarelag der fungerer som 'styresystem' for AI-applikationer — det håndterer modelkald, agentorkestering, kontekststyring og sikkerhed i ét samlet lag.

Læs mere →

Sikkerhedsmekanismer, der overvåger og håndhæver regler for AI-agenter i realtid – mens de kører, ikke kun før deployment.

Læs mere →

AI-værktøjer, der hjælper sælgere med at forberede møder, skrive mails, opsummere kundekald og foreslå næste skridt.

Læs mere →

Et lukket, sikkert testmiljø, hvor medarbejdere kan eksperimentere med AI-værktøjer uden risiko for at lække data til internettet.

Læs mere →

Et forsikringsvilkår, der kræver dokumenteret AI-sikkerhed – fx red teaming, risikovurdering og tekniske sikkerhedsforanstaltninger – som forudsætning for dækning.

Læs mere →

Lavkvalitetsindhold masseproduceret med generativ AI, som mangler dybde, originalitet og reel værdi for læseren.

Læs mere →

En samlet desktop- eller mobilapplikation, der kombinerer flere AI-værktøjer – chat, kodning, browsing og agenter – i én fælles grænseflade.

Læs mere →

Inddelingen af AI-systemer i risikoniveauer (uacceptabel, høj, begrænset, minimal risiko) ifølge EU AI Act.

Læs mere →

Det lag af specifikke værktøjer og plugins, som giver en AI-agent evnen til at udføre handlinger i eksterne systemer.

Læs mere →

Processen hvor en virksomhed integrerer AI i kerneprocesser for at ændre og optimere forretningsmodellen.

Læs mere →

Krav i EU AI Act om, at AI-genereret indhold skal mærkes maskinlæsbart, og at deepfakes og AI-tekster tydeligt skal markeres over for brugerne.

Læs mere →

Det systematiske arbejde med at måle, dokumentere og optimere den forretningsværdi, som AI-løsninger faktisk skaber efter go-live.

Læs mere →

Den målbare lønforskel, som medarbejdere med AI-kompetencer opnår sammenlignet med kollegaer i tilsvarende roller uden disse færdigheder – aktuelt op til 56 % ekstra.

Læs mere →

Teknikker til at indlejre usynlige, maskinlæsbare signaler i AI-genereret indhold, så det efterfølgende kan identificeres som syntetisk.

Læs mere →

Programkode, der er skrevet helt eller delvist af AI-modeller som GitHub Copilot, Claude Code eller Cursor – i 2026 er 41 % af al ny kode AI-genereret.

Læs mere →

Lovpligtig mærkning af indhold, der er produceret eller væsentligt redigeret af AI, så modtageren kan se, at AI har været involveret.

Læs mere →

En ny kategori af designværktøjer, hvor AI ikke blot assisterer, men er den primære skabende kraft – fra idé til færdigt visuelt output.

Læs mere →

IT-infrastruktur, der fra grunden er designet til AI-arbejdsbelastninger – med specialiserede chips, netværk og storage optimeret til modeltræning og inferens.

Læs mere →

En softwareudviklingsmetode, hvor AI er integreret i hele udviklingsprocessen fra start – ikke tilføjet efterfølgende som et ekstra lag.

Læs mere →

Teknikker, der gør det muligt for AI-agenter automatisk at kontrollere rigtigheden af deres egne svar og handlinger.

Læs mere →

Princippet om at en organisation eller nation bevarer kontrol over sine AI-systemer, data og infrastruktur – uafhængigt af udenlandske leverandører og cloud-platforme.

Læs mere →

Indbyggede fordomme eller skævheder i en AI-model, oftest opstået fordi træningsdataen var mangelfuld eller forudindtaget.

Læs mere →

Praksissen med at designe og implementere AI med fokus på etik, gennemsigtighed og fairness.

Læs mere →

Koden der gør det muligt for to systemer (f.eks. HubSpot og en LLM) at tale sammen og udveksle data.

Læs mere →

En åben teknisk standard, der kryptografisk dokumenterer et digitalt indholds oprindelse, herunder om det er skabt eller redigeret med AI.

Læs mere →

Brug af AI til automatisk at transskribere salgskald eller kundeservice-samtaler og udtrække nøgleemner, sentiment og næste skridt.

Læs mere →

En foruddefineret grænse for, hvornår en AI-models evner bliver tilstrækkeligt avancerede til at udløse skærpede sikkerhedskrav og kontrolforanstaltninger.

Læs mere →

Et fænomen, hvor en AI-model glemmer tidligere lært viden, når den trænes på nye data – en central udfordring for modeller, der skal opdateres løbende.

Læs mere →

En prompting-teknik, der beder AI'en om at tænke højt og forklare sine mellemregninger trin-for-trin, før den giver det endelige svar.

Læs mere →

Organisatoriske tiltag, træning og kommunikation, der skal til for at medarbejdere accepterer og bruger nye AI-løsninger i praksis.

Læs mere →

Processen hvor lange dokumenter brydes ned i mindre, meningsfulde bidder (chunks), før de lægges ind i en AI's database.

Læs mere →

AI-modeller, der identificerer kunder, som er i høj risiko for at opsige deres abonnement eller forlade virksomheden, før det sker.

Læs mere →

AI-modeller, der forstår og kan arbejde på tværs af flere forskellige medietyper, såsom tekst, billeder, lyd og video på samme tid.

Læs mere →

AI-tjenester leveret via internettet fra store udbydere (som Google Cloud eller Azure), som kræver minimal lokal infrastruktur.

Læs mere →

AI-modellens evne til at skrive, køre og teste programkode i et sikret miljø midt i en samtale — og bruge resultatet til at give et bedre svar.

Læs mere →

En tilgang, der kombinerer flere AI-teknikker – fx machine learning, videngrafer, NLP og regelbaserede systemer – i én samlet løsning for at håndtere komplekse forretningsproblemer.

Læs mere →

En AI-kapabilitet, hvor modellen selvstændigt kan betjene en computer – klikke, skrive, navigere mellem programmer og udføre opgaver på brugerens vegne.

Læs mere →

En sikkerhedsteknologi, der beskytter data, mens den aktivt behandles af AI-modeller, ved at køre beregninger i krypterede hardware-enklaver.

Læs mere →

Den formelle proces hvor virksomheden får vurderet, om et højrisiko AI-system lever op til kravene i AI Act, før lancering.

Læs mere →

En tilgang til AI-sikkerhed, hvor modellen styres af et sæt nedskrevne principper ('en forfatning') og i høj grad evaluerer sig selv frem for udelukkende at afhænge af menneskelig feedback.

Læs mere →

En teknik, der gemmer og genbruger dele af en AI-models kontekst mellem forespørgsler for at reducere omkostninger og svartider.

Læs mere →

Et softwarelag mellem brugeren og AI-modellen, der i realtid samler, strukturerer og leverer den rette kontekst – fra databaser, dokumenter og API'er – til modellens prompt.

Læs mere →

Disciplinen at designe og styre den kontekst – data, instruktioner og hukommelse – som en AI-model modtager for at sikre præcise og relevante svar.

Læs mere →

Den maksimale mængde tekst (input + historik), en LLM kan 'have i hovedet' på én gang.

Læs mere →

En AI-arkitektur, hvor modeller løbende lærer af nye data i produktion – uden at skulle genoptrænes fra bunden hver gang.

Læs mere →

Avancerede chatbots og stemmeassistenter, der kan føre naturlige, dynamiske samtaler med kunder i stedet for at følge fastlagte regelsæt.

Læs mere →

En AI-assistent, der arbejder side om side med en menneskelig bruger for at øge produktiviteten, men kræver brugerens konstante styring.

Læs mere →

En AI-agent, der selvstændigt kan orkestrere kreative arbejdsgange – fra design og billedredigering til videoproduktion – ved at koordinere flere værktøjer i én samlet proces.

Læs mere →

Et open source Python-framework til at bygge multi-agent-systemer, hvor AI-agenter tildeles roller, mål og baggrundsviden og samarbejder om komplekse opgaver.

Læs mere →

Skræddersyede processorer, som techvirksomheder selv udvikler specifikt til AI-træning og inferens — i stedet for at bruge standardchips fra f.eks. NVIDIA.

Læs mere →

En samlet, AI-beriget visning af kundens historik, adfærd og præferencer på tværs af systemer (CRM, support, marketing).

Læs mere →

Ændringer i inputdataenes fordeling over tid, som kan gøre eksisterende modeller mindre pålidelige.

Læs mere →

Krav til kvalitet, repræsentativitet og dokumentation af de datasæt, der bruges til at træne, validere og teste AI-modeller.

Læs mere →

De automatiserede flows, der indsamler, renser, transformerer og leverer data til AI-modeller.

Læs mere →

Når angribere bevidst forurener træningsdata eller RAG-dokumenter, så AI-modellen lærer forkerte mønstre.

Læs mere →

Beskyttelse af personoplysninger (GDPR) i forbindelse med indsamling af træningsdata og input/output i AI-modeller.

Læs mere →

Et mål for, hvor hurtigt en organisation kan automatisere og eksekvere beslutninger ved hjælp af AI – fra datainput til handling.

Læs mere →

En avanceret form for Machine Learning inspireret af den menneskelige hjerne (neurale netværk), som bruges til komplekse opgaver som billed- og talegenkendelse.

Læs mere →

En autonom AI-agent, der selvstændigt planlægger, søger, læser og syntetiserer information fra flere kilder til en samlet rapport med kilder og visualiseringer.

Læs mere →

Kravet om tydeligt at markere AI-genereret eller AI-manipuleret indhold – herunder syntetiske billeder, videoer og lyd – så modtageren kan skelne det fra autentisk materiale.

Læs mere →

Kinesisk AI-laboratorium og open source-udfordrer, der har rystet AI-industrien med modeller, som matcher vestlige frontiermodeller til en brøkdel af træningsomkostningerne.

Læs mere →

Kinesisk AI-laboratorium og open source-udfordrer, der har rystet AI-industrien med modeller, som matcher vestlige frontiermodeller til en brøkdel af træningsomkostningerne.

Læs mere →

Sikkerhedsstrategi hvor flere lag af beskyttelsesforanstaltninger kombineres for at reducere risikoen ved AI-systemer – frem for at stole på én enkelt sikkerhedsmekanisme.

Læs mere →

Brugen af kunstig intelligens til at forsvare organisationer mod cyberangreb – ved at opdage, analysere og reagere på trusler i maskinhastighed.

Læs mere →

En virtuel kopi af et fysisk objekt, system eller proces, der opdateres med realtidsdata og bruges til simulering, overvågning og optimering.

Læs mere →

Et angreb, hvor en aktør systematisk udtrækker viden fra en proprietær AI-model ved at sende tusindvis af forespørgsler og bruge svarene til at træne en kopi.

Læs mere →

Et open source-værktøj fra IBM Research, der konverterer dokumenter (PDF, Word, HTML, regneark) til AI-klar formatering med fuld sporbarhed til kilderne.

Læs mere →

AI-modeller der er specialtrænet til ét fagområde – f.eks. medicin, jura eller cybersikkerhed – frem for at være generelle sprogmodeller.

Læs mere →

En nyere metode til at tilpasse AI-modellers adfærd efter menneskelige præferencer – enklere og mere stabil end den ældre RLHF-tilgang.

Læs mere →

En infrastrukturtilgang, hvor en AI-agents tilstand løbende gemmes, så den kan genoptages præcis dér, hvor den stoppede – selv efter nedbrud eller genstart.

Læs mere →

Indhold på website eller e-mail, der ændres automatisk baseret på brugerens adfærd og profil, drevet af AI.

Læs mere →

AI-beregninger, der foregår direkte på den lokale enhed (f.eks. en smartphone, en maskine i produktionen eller en bil) frem for i skyen.

Læs mere →

Numeriske repræsentationer af tekst, billeder eller andre objekter i et flerdimensionelt rum.

Læs mere →

Uventede evner eller mønstre, der opstår i AI-modeller, uden at de er blevet eksplicit programmeret eller trænet til dem.

Læs mere →

Betegnelsen for AI-løsninger, der er designet til hele organisationen – på tværs af afdelinger, systemer og processer – med fokus på skalerbarhed, governance og forretningsværdi.

Læs mere →

EUs lovgivning om kunstig intelligens (træder fuldt i kraft i 2026), som inddeler AI-systemer i risikoklasser og stiller strenge krav til transparens.

Læs mere →

EU-Kommissionens frivillige adfærdskodeks, der fastlægger praktiske standarder for mærkning og gennemsigtighed af AI-genereret indhold som tekst, billeder, lyd og video.

Læs mere →

En samlet EU-lovpakke fra 2026, der justerer tidsfrister og krav i bl.a. AI Act, og giver virksomheder mere tid til at implementere de strengeste regler.

Læs mere →

Et automatiseret test-setup, der systematisk evaluerer kvaliteten, nøjagtigheden og sikkerheden af en AI-models output.

Læs mere →

AI-systemer, der er designet således, at mennesker kan forstå, hvordan og hvorfor AI'en traf en bestemt beslutning.

Læs mere →

Et centralt bibliotek for de data-features, som bruges på tværs af AI-modeller, så de kan genbruges.

Læs mere →

En metode til at træne AI-modeller på distribuerede datasæt uden at samle rå data ét sted – modellen rejser til dataene i stedet for omvendt.

Læs mere →

En prompting-teknik, hvor man giver AI'en et par eksempler på den ønskede opgave og output-format, før den skal løse selve opgaven.

Læs mere →

Processen hvor man tager en eksisterende AI-model og videre-træner den på virksomhedsspecifikke data.

Læs mere →

Kæmpestore, generelle AI-modeller (som GPT-4 eller Claude 3), der er trænet på enorme mængder data og danner basis for mange specifikke applikationer.

Læs mere →

Et lovkrav i bl.a. Californien og New York om, at udviklere af de mest avancerede AI-modeller skal dokumentere, hvordan de håndterer katastrofale risici.

Læs mere →

En struktureret plan, som AI-virksomheder udgiver for at beskrive, hvordan de identificerer, evaluerer og mitigerer risici ved deres mest avancerede modeller.

Læs mere →

Lovgivning rettet specifikt mod de mest avancerede AI-modeller (frontier-modeller), der kræver transparens, risikovurdering og sikkerhedsprocedurer fra udviklerne.

Læs mere →

Specialiserede AI-modeller trænet til at finde sårbarheder i software, vurdere trusler og styrke en organisations cyberforsvar.

Læs mere →

Betegnelsen for de mest avancerede og kapable AI-modeller, som typisk trænes af de største AI-laboratorier med enorme mængder data og beregningskraft.

Læs mere →

En nonprofitorganisation grundlagt af OpenAI, Anthropic, Google og Microsoft til at fremme sikker og ansvarlig udvikling af de mest avancerede AI-modeller.

Læs mere →

Googles flagskibs-AI-modelfamilie, der er designet til at arbejde nativt på tværs af tekst, billeder, lyd og video i én samlet arkitektur.

Læs mere →

Googles familie af åbne AI-modeller, der kan downloades og køres lokalt eller i egen cloud – uden afhængighed af Googles API.

Læs mere →

En type AI, der kan skabe nyt indhold – tekst, billeder, kode eller lyd – baseret på de data, den er trænet på.

Læs mere →

Et filformat til kvantiserede AI-modeller, der gør det muligt at køre store sprogmodeller lokalt via værktøjer som Ollama og llama.cpp. GGUF-filer komprimerer modeller markant, så de kan køre på consumer-hardware med reduceret, men brugbar kvalitet.

Læs mere →

Googles open source-framework til at bygge, teste og deploye AI-agenter — designet til at fungere med både Gemini-modeller og tredjeparts-LLM'er.

Læs mere →

EU AI Acts betegnelse for AI-modeller med bred anvendelighed, der kan løse mange forskellige opgaver og integreres i andre systemer – f.eks. GPT, Claude og Gemini.

Læs mere →

En avanceret videreudvikling af RAG, der kombinerer semantisk søgning med vidensgrafer for at forstå komplekse relationer i data.

Læs mere →

Teknikken til at forankre en AI's svar i specifikke, verificerbare kilder for at forhindre opdigtede informationer (hallucinationer).

Læs mere →

En træningsmetode til store sprogmodeller, der forbedrer deres ræsonneringsevne ved at lade modellen generere flere løsninger og forstærke de bedste – uden behov for en separat evalueringsmodel.

Læs mere →

Regler og filtre omkring en LLM, der forhindrer uønsket adfærd – f.eks. læk af persondata eller diskriminerende output.

Læs mere →

Når en AI-sprogmodel opfinder fakta eller genererer selvsikre, men fuldstændig forkerte svar.

Læs mere →

Disciplinen bag design af den infrastruktur, der styrer, overvåger og sikrer AI-agenter i produktion – fra sandboxing og fejlhåndtering til observerbarhed og adgangsstyring.

Læs mere →

Krav og praksis for at sikre, at mennesker overvåger og kan overrule vigtige AI-beslutninger – især i højrisiko-scenarier.

Læs mere →

Et systemdesign, hvor menneskelig dømmekraft, godkendelse eller feedback er integreret direkte i AI'ens arbejdsproces.

Læs mere →

En arkitekturtilgang, der kombinerer forskellige AI-modeller eller -implementeringsformer – typisk lokal (edge) og cloud-baseret AI – for at opnå den bedste balance mellem hastighed, sikkerhed og kapacitet.

Læs mere →

En avanceret RAG-arkitektur, der kombinerer semantisk vektorsøgning med traditionel nøgleordssøgning for at levere mere præcise og pålidelige svar fra virksomhedens data.

Læs mere →

Brug af AI til at skræddersy indhold, produktanbefalinger og budskaber til den enkelte bruger i realtid.

Læs mere →

Kæmpe datacentre designet specifikt til at træne og køre AI-modeller i stor skala, ofte med hundredtusindvis af GPU'er og et massivt energiforbrug.

Læs mere →

AI-systemer, der kan påvirke menneskers sikkerhed eller grundlæggende rettigheder (f.eks. AI til rekruttering eller kreditvurdering).

Læs mere →

Selve kørselstidspunktet hvor en AI-model tager imod input og genererer et output.

Læs mere →

Disciplinen der handler om at forstå, styre og optimere omkostningerne ved at køre AI-modeller i produktion – fra tokenpriser og hardwarevalg til arkitektoniske beslutninger.

Læs mere →

En cloud-baseret tjenestemodel, hvor virksomheder kører AI-modeller via en ekstern udbyder uden selv at eje eller administrere den underliggende GPU-infrastruktur.

Læs mere →

Samlebetegnelsen for teknikker, der gør det hurtigere og billigere at køre AI-modeller i produktion – uden at gå på kompromis med kvaliteten.

Læs mere →

Et nyt handelsparadigme, hvor AI-agenter selvstændigt kan browse, vælge og betale for varer og tjenester på vegne af brugeren.

Læs mere →

AI-funktionalitet, der er så dybt integreret i eksisterende produkter og tjenester, at brugeren ikke aktivt oplever at interagere med AI.

Læs mere →

Den internationale standard for et ledelsessystem til ansvarlig brug af kunstig intelligens – AI's svar på ISO 27001 for informationssikkerhed.

Læs mere →

Metoder hvor en bruger bevidst manipulerer en AI til at bryde sine egne etiske og sikkerhedsmæssige retningslinjer.

Læs mere →

Et governance-framework for AI-agenter, der – ligesom KYC (Know Your Customer) i finanssektoren – sikrer, at autonome AI-systemer er identificerbare, autoriserede og overvågede.

Læs mere →

Et centraliseret, struktureret arkiv af virksomhedens interne viden, dokumenter og data, som AI-systemer kan tilgå.

Læs mere →

En teknik, hvor viden fra en stor, kompleks AI-model overføres til en mindre og hurtigere model, der bevarer det meste af den oprindelige kvalitet.

Læs mere →

En optimeringsstrategi for store sprogmodeller, der gemmer mellemregninger fra tidligere tokens, så modellen ikke behøver at genberegne hele konteksten for hvert nyt token.

Læs mere →

Et open source-framework til at bygge stateful, kontrollerbare AI-agentworkflows, hvor flere agenter kan samarbejde i komplekse, flertrinsprocesforløb.

Læs mere →

En avanceret AI-type, der ikke blot forstår og genererer tekst, men også selvstændigt kan planlægge og udføre handlinger i digitale systemer – f.eks. bestille varer, udfylde formularer eller navigere i software.

Læs mere →

Den tid det tager fra en bruger sender en forespørgsel, til AI’en returnerer et svar.

Læs mere →

Modeller der beregner sandsynligheden for, at et lead konverterer til kunde, baseret på adfærd, demografi og historik.

Læs mere →

Forskningsfeltet, der forbinder jura og AI-alignment ved at anvende juridiske principper om delegation, ansvar og incitamenter til at sikre, at AI-systemer handler i overensstemmelse med lovgivning og menneskelige værdier.

Læs mere →

Metas familie af open source-sprogmodeller, der har demokratiseret adgangen til avanceret AI ved at gøre kraftfulde modeller frit tilgængelige for alle.

Læs mere →

Store sprogmodeller, der er trænet på enorme mængder tekstdata for at kunne forstå og generere menneskelignende sprog.

Læs mere →

Løbende logning af input, output og modelversioner, så man efterfølgende kan undersøge en AI-beslutning.

Læs mere →

En teknik til at tilpasse store AI-modeller ved kun at opdatere en lille brøkdel af modellens parametre – typisk under 1 % – i stedet for at genoptræne hele modellen.

Læs mere →

En underkategori af AI, hvor systemer lærer og forbedrer sig fra data uden at være eksplicit programmeret til hver enkelt opgave.

Læs mere →

Cloud-hostede AI-agenter, der kører i fuldt administrerede miljøer med sandboxing, checkpointing, adgangsstyring og overvågning – klar til produktion uden egen infrastruktur.

Læs mere →

Et forskningsfelt inden for AI-sikkerhed, der handler om at forstå præcis, hvordan en AI-models interne neuroner og kredsløb producerer bestemte svar.

Læs mere →

Microsofts open source-platform til at bygge, orkestrere og udrulle AI-agenter og multi-agent-applikationer i .NET og Python.

Læs mere →

Microsofts samlede AI-platform, der giver virksomheder adgang til at bygge, tilpasse og udbrede AI-modeller fra en bred vifte af udbydere via Azure.

Læs mere →

En AI-arkitektur, hvor flere specialiserede undermodeller ('eksperter') samarbejder, og kun de mest relevante aktiveres for hver opgave.

Læs mere →

Et sæt praksisser og værktøjer, der automatiserer og standardiserer hele livscyklussen for ML-modeller.

Læs mere →

Et standardiseret dokumentationsark, der beskriver en AI-models formål, træningsdata, begrænsninger og testresultater – nu et lovkrav under EU AI Act for udbydere af generelle AI-modeller.

Læs mere →

Et fænomen hvor AI-modeller gradvist forringes i kvalitet, når de trænes på data genereret af andre AI-modeller frem for ægte menneskeskabt data.

Læs mere →