AI Ordbog
Forstå de vigtigste AI-begreber. Fra strategi til teknologi.
En åben kommunikationsprotokol, der lader AI-agenter fra forskellige leverandører og frameworks samarbejde og udveksle information på tværs af platforme.
Læs mere →En åben standard der standardiserer kommunikationen mellem kode-editorer og AI coding agents, så enhver agent kan fungere i enhver editor uden specialbyggede integrationer.
Læs mere →En åben standard udviklet af IBM til agent-til-agent-kommunikation, der gør det muligt for AI-agenter fra forskellige systemer at samarbejde og udveksle information.
Læs mere →En praksis, hvor konkurrenter systematisk udtrækker viden fra en AI-models API-svar for at træne deres egne modeller – uden tilladelse eller betaling.
Læs mere →Systematisk test og kvalitetsvurdering af AI-agenter — måler om de løser opgaver korrekt, følger regler og håndterer fejl fornuftigt, før de sættes i produktion.
Læs mere →En standardiseret oplysningsprofil for AI-agenter, der beskriver agentens kapaciteter, begrænsninger, tilladte handlingsdomæner og eskaleringsprocedurer.
Læs mere →En sikkerhedsarkitektur der forbinder flere AI-agenter i et kontrolleret netværk med krypteret kommunikation og gensidige tillidspolitikker.
Læs mere →En central fortegnelse over alle AI-agenter i en organisation — med metadata om hver agents formål, ejer, tilladelser, status og afhængigheder.
Læs mere →Fænomenet hvor en virksomhed ender med hundredvis af AI-agenter uden samlet overblik — ofte med overlappende funktioner, uklare ejerskaber og manglende styring.
Læs mere →Et netværk af mange uafhængige AI-agenter, der samarbejder decentralt om at løse komplekse, storskalerede opgaver.
Læs mere →AI-systemer, der har en grad af handlekraft (agency) – de kan planlægge, træffe beslutninger og udføre handlinger autonomt for at nå et mål.
Læs mere →En afdeling under Linux Foundation, der styrer åbne standarder for AI-agenter — herunder Model Context Protocol (MCP) og andre interoperabilitetsprotokoller.
Læs mere →En webbrowser med indbygget AI-agent, der selvstændigt kan navigere websider, udfylde formularer og udføre flertrinsopgaver på brugerens vegne.
Læs mere →En softwareudviklingsmetode, hvor AI-agenter selvstændigt skriver, tester og refaktorerer kode baseret på overordnede instruktioner fra en udvikler.
Læs mere →En ny handelsform, hvor AI-agenter selvstændigt researscher, sammenligner og gennemfører køb på vegne af forbrugere eller virksomheder.
Læs mere →Ingeniørdisciplinen bag design, opbygning og drift af AI-agentsystemer – fra arkitektur og orkestrering til test og overvågning.
Læs mere →Disciplinen og de processer, der sikrer kontrol, overvågning og ansvarlighed på tværs af en virksomheds fleet af autonome AI-agenter.
Læs mere →En betalingsform, hvor AI-agenter selvstændigt kan gennemføre køb, godkende transaktioner og håndtere betaling på vegne af en bruger eller virksomhed – med indbyggede sikkerhedskontroller.
Læs mere →En avanceret form for RAG, hvor autonome AI-agenter styrer hele søge- og svarprocessen – fra at vælge datakilder til at validere og sammensætte det endelige svar.
Læs mere →Skaleringsmetode hvor AI-agenter interagerer med andre agenter og værktøjer for at løse komplekse opgaver – en ny fase ud over traditionel træning og inferens.
Læs mere →En åben sikkerhedsstandard fra Cloud Security Alliance, der anvender Zero Trust-principper til styring af autonome AI-agenter.
Læs mere →En dynamisk sekvens af forretningsopgaver, der udføres af AI-agenter, som selv kan ræsonnere, træffe beslutninger og tilpasse sig ændringer undervejs – i modsætning til traditionel regelbaseret automatisering.
Læs mere →Den operationelle disciplin for styring, overvågning og drift af AI-agenter i produktion – svarende til hvad DevOps er for software og MLOps for maskinlæring.
Læs mere →En åben standard, der giver AI-kodningsagenter struktureret vejledning om, hvordan de skal arbejde i et specifikt softwareprojekt – som en README, men skrevet til AI.
Læs mere →Paraplybetegnelsen for maskiner og systemer, der kan udføre opgaver, som normalt kræver menneskelig intelligens (f.eks. problemløsning og mønstergenkendelse).
Læs mere →Et autonomt AI-system, der ikke bare svarer på spørgsmål, men aktivt kan udføre handlinger i andre softwaresystemer.
Læs mere →Den grundlæggende arkitektur bag autonome AI-agenter: en cyklus af observation, ræsonnering, handling og ny observation, der gentages, indtil opgaven er løst.
Læs mere →En platform eller markedsplads, hvor virksomheder kan finde, sammenligne og implementere specialiserede AI-agenter til specifikke forretningsopgaver.
Læs mere →Mekanismer der gør det muligt for AI-agenter at huske information på tværs af sessioner og interaktioner, så de kan opbygge kontekst og blive mere personaliserede over tid.
Læs mere →Fælles standarder og protokoller, der sikrer, at AI-agenter fra forskellige leverandører kan kommunikere sikkert og arbejde sammen.
Læs mere →Værktøjer, der genererer komplette applikationer – med database, login og hosting – ud fra en naturlig sprogbeskrivelse, helt uden traditionel kodning.
Læs mere →En sporbar log over beslutninger, modelversioner, træningsdata og ændringer, der gør det muligt at revidere et AI-system.
Læs mere →En økonomisk begrundelse for et AI-projekt, der afvejer implementeringsomkostninger mod forventet ROI, tidsbesparelser og øget omsætning.
Læs mere →Et tværfagligt team, der driver AI-strategi, standarder, governance og best practice på tværs af virksomheden.
Læs mere →En AI-drevet digital assistent, der er designet til løbende, personlig interaktion – i modsætning til enkeltopgavebaserede chatbots.
Læs mere →Den praktiske proces med at sikre, at en virksomheds brug af AI lever op til gældende love, regler og branchestandarder – herunder EU AI Act.
Læs mere →Automatisering af indholdsproduktion (tekst, billeder, video) til SEO, sociale medier og e-mail marketing ved hjælp af generativ AI.
Læs mere →Brugen af kunstig intelligens til at opdage, forebygge og reagere på cybertrusler – fra sårbarhedsscanning og trusselsanalyse til automatiseret incident response.
Læs mere →En samlet infrastruktur, der automatiserer hele livscyklussen for AI-træningsdata – fra generering og augmentering til kvalitetskontrol og evaluering i stor skala.
Læs mere →Anvendelsen af AI-modeller til at accelerere opdagelsen og udviklingen af nye lægemidler – fra molekyledesign til kliniske forsøg.
Læs mere →Et datacenter specifikt designet og optimeret til at træne og køre AI-modeller i stor skala – en fabrik, der producerer intelligens.
Læs mere →Disciplinen for at styre, optimere og forudsige omkostningerne ved en virksomheds AI-infrastruktur og -forbrug på tværs af cloud, on-premise og hybrid-miljøer.
Læs mere →Et centralt infrastrukturlag, der sidder mellem virksomhedens applikationer og de AI-modeller, der bruges – og håndterer sikkerhed, overvågning, caching og adgangskontrol på tværs af flere modeller.
Læs mere →Det interne regelsæt, framework og processer en virksomhed sætter op for at sikre, at AI udvikles og bruges etisk, sikkert og lovligt.
Læs mere →En systematisk evaluering af, hvordan et AI-system påvirker mennesker, rettigheder og samfund – påkrævet under EU AI Act for højrisiko-systemer og i flere amerikanske delstatslovgivninger.
Læs mere →En intelligent indbakke der bruger AI til automatisk at prioritere, opsummere og kategorisere beskeder – så brugeren ser det vigtigste først.
Læs mere →Algoritmer der automatisk vurderer og rangerer indkomne leads, ofte integreret direkte i CRM-systemer som HubSpot.
Læs mere →Det generelle vidensniveau i organisationen om, hvad AI kan og ikke kan, så ledere og medarbejdere kan træffe kvalificerede beslutninger.
Læs mere →Brug af AI til at automatisere, optimere og tidsindstille marketingkampagner på tværs af kanaler.
Læs mere →AI-systemers evne til at huske kontekst, præferencer og tidligere samtaler på tværs af sessioner – i modsætning til traditionelle stateless modeller.
Læs mere →Den måde en virksomhed organiserer roller, ansvar, processer og teknologier omkring AI, så det bliver en integreret del af forretningen.
Læs mere →Styring og koordinering af flere AI-komponenter og workflows (f.eks. RAG, agenter, API-kald) i én samlet løsning.
Læs mere →En arbejdsform, hvor en AI-assistent skriver kode side om side med udvikleren – foreslår løsninger, finder fejl og genererer hele funktioner i realtid.
Læs mere →En runtime-komponent der opfanger og evaluerer enhver AI-agenthandling mod foruddefinerede regler, før handlingen udføres.
Læs mere →En vurdering af, hvor klar en virksomhed er til at implementere AI – målt på data, infrastruktur, kultur og kompetencer.
Læs mere →Et kontrolleret testmiljø oprettet af en national myndighed, hvor virksomheder kan udvikle og afprøve innovative AI-systemer under myndighedstilsyn – før de lanceres på markedet.
Læs mere →Processen med at oplære medarbejdere i nye kompetencer, fordi deres eksisterende opgaver helt eller delvist automatiseres af AI.
Læs mere →Den systematiske proces med at identificere, vurdere og mitigere risici ved AI – fra datasikkerhed og bias til regulatoriske konsekvenser.
Læs mere →En konkret plan, der beskriver virksomhedens AI-rejse over 12–36 måneder – fra pilotprojekter til fuld skalering.
Læs mere →Foruddefinerede, genbrugelige AI-arbejdsgange, der automatisk udfører tilbagevendende opgaver som rapporter, opsummeringer eller dataopdateringer.
Læs mere →Et softwarelag der fungerer som 'styresystem' for AI-applikationer — det håndterer modelkald, agentorkestering, kontekststyring og sikkerhed i ét samlet lag.
Læs mere →Sikkerhedsmekanismer, der overvåger og håndhæver regler for AI-agenter i realtid – mens de kører, ikke kun før deployment.
Læs mere →AI-værktøjer, der hjælper sælgere med at forberede møder, skrive mails, opsummere kundekald og foreslå næste skridt.
Læs mere →Et lukket, sikkert testmiljø, hvor medarbejdere kan eksperimentere med AI-værktøjer uden risiko for at lække data til internettet.
Læs mere →Et forsikringsvilkår, der kræver dokumenteret AI-sikkerhed – fx red teaming, risikovurdering og tekniske sikkerhedsforanstaltninger – som forudsætning for dækning.
Læs mere →Lavkvalitetsindhold masseproduceret med generativ AI, som mangler dybde, originalitet og reel værdi for læseren.
Læs mere →En samlet desktop- eller mobilapplikation, der kombinerer flere AI-værktøjer – chat, kodning, browsing og agenter – i én fælles grænseflade.
Læs mere →Inddelingen af AI-systemer i risikoniveauer (uacceptabel, høj, begrænset, minimal risiko) ifølge EU AI Act.
Læs mere →Det lag af specifikke værktøjer og plugins, som giver en AI-agent evnen til at udføre handlinger i eksterne systemer.
Læs mere →Processen hvor en virksomhed integrerer AI i kerneprocesser for at ændre og optimere forretningsmodellen.
Læs mere →Krav i EU AI Act om, at AI-genereret indhold skal mærkes maskinlæsbart, og at deepfakes og AI-tekster tydeligt skal markeres over for brugerne.
Læs mere →Det systematiske arbejde med at måle, dokumentere og optimere den forretningsværdi, som AI-løsninger faktisk skaber efter go-live.
Læs mere →Den målbare lønforskel, som medarbejdere med AI-kompetencer opnår sammenlignet med kollegaer i tilsvarende roller uden disse færdigheder – aktuelt op til 56 % ekstra.
Læs mere →Teknikker til at indlejre usynlige, maskinlæsbare signaler i AI-genereret indhold, så det efterfølgende kan identificeres som syntetisk.
Læs mere →Programkode, der er skrevet helt eller delvist af AI-modeller som GitHub Copilot, Claude Code eller Cursor – i 2026 er 41 % af al ny kode AI-genereret.
Læs mere →Lovpligtig mærkning af indhold, der er produceret eller væsentligt redigeret af AI, så modtageren kan se, at AI har været involveret.
Læs mere →En ny kategori af designværktøjer, hvor AI ikke blot assisterer, men er den primære skabende kraft – fra idé til færdigt visuelt output.
Læs mere →IT-infrastruktur, der fra grunden er designet til AI-arbejdsbelastninger – med specialiserede chips, netværk og storage optimeret til modeltræning og inferens.
Læs mere →En softwareudviklingsmetode, hvor AI er integreret i hele udviklingsprocessen fra start – ikke tilføjet efterfølgende som et ekstra lag.
Læs mere →Teknikker, der gør det muligt for AI-agenter automatisk at kontrollere rigtigheden af deres egne svar og handlinger.
Læs mere →Princippet om at en organisation eller nation bevarer kontrol over sine AI-systemer, data og infrastruktur – uafhængigt af udenlandske leverandører og cloud-platforme.
Læs mere →Indbyggede fordomme eller skævheder i en AI-model, oftest opstået fordi træningsdataen var mangelfuld eller forudindtaget.
Læs mere →Praksissen med at designe og implementere AI med fokus på etik, gennemsigtighed og fairness.
Læs mere →Koden der gør det muligt for to systemer (f.eks. HubSpot og en LLM) at tale sammen og udveksle data.
Læs mere →En åben teknisk standard, der kryptografisk dokumenterer et digitalt indholds oprindelse, herunder om det er skabt eller redigeret med AI.
Læs mere →Brug af AI til automatisk at transskribere salgskald eller kundeservice-samtaler og udtrække nøgleemner, sentiment og næste skridt.
Læs mere →En foruddefineret grænse for, hvornår en AI-models evner bliver tilstrækkeligt avancerede til at udløse skærpede sikkerhedskrav og kontrolforanstaltninger.
Læs mere →Et fænomen, hvor en AI-model glemmer tidligere lært viden, når den trænes på nye data – en central udfordring for modeller, der skal opdateres løbende.
Læs mere →En prompting-teknik, der beder AI'en om at tænke højt og forklare sine mellemregninger trin-for-trin, før den giver det endelige svar.
Læs mere →Organisatoriske tiltag, træning og kommunikation, der skal til for at medarbejdere accepterer og bruger nye AI-løsninger i praksis.
Læs mere →Processen hvor lange dokumenter brydes ned i mindre, meningsfulde bidder (chunks), før de lægges ind i en AI's database.
Læs mere →AI-modeller, der identificerer kunder, som er i høj risiko for at opsige deres abonnement eller forlade virksomheden, før det sker.
Læs mere →AI-modeller, der forstår og kan arbejde på tværs af flere forskellige medietyper, såsom tekst, billeder, lyd og video på samme tid.
Læs mere →AI-tjenester leveret via internettet fra store udbydere (som Google Cloud eller Azure), som kræver minimal lokal infrastruktur.
Læs mere →AI-modellens evne til at skrive, køre og teste programkode i et sikret miljø midt i en samtale — og bruge resultatet til at give et bedre svar.
Læs mere →En tilgang, der kombinerer flere AI-teknikker – fx machine learning, videngrafer, NLP og regelbaserede systemer – i én samlet løsning for at håndtere komplekse forretningsproblemer.
Læs mere →En AI-kapabilitet, hvor modellen selvstændigt kan betjene en computer – klikke, skrive, navigere mellem programmer og udføre opgaver på brugerens vegne.
Læs mere →En sikkerhedsteknologi, der beskytter data, mens den aktivt behandles af AI-modeller, ved at køre beregninger i krypterede hardware-enklaver.
Læs mere →Den formelle proces hvor virksomheden får vurderet, om et højrisiko AI-system lever op til kravene i AI Act, før lancering.
Læs mere →En tilgang til AI-sikkerhed, hvor modellen styres af et sæt nedskrevne principper ('en forfatning') og i høj grad evaluerer sig selv frem for udelukkende at afhænge af menneskelig feedback.
Læs mere →En teknik, der gemmer og genbruger dele af en AI-models kontekst mellem forespørgsler for at reducere omkostninger og svartider.
Læs mere →Et softwarelag mellem brugeren og AI-modellen, der i realtid samler, strukturerer og leverer den rette kontekst – fra databaser, dokumenter og API'er – til modellens prompt.
Læs mere →Disciplinen at designe og styre den kontekst – data, instruktioner og hukommelse – som en AI-model modtager for at sikre præcise og relevante svar.
Læs mere →Den maksimale mængde tekst (input + historik), en LLM kan 'have i hovedet' på én gang.
Læs mere →En AI-arkitektur, hvor modeller løbende lærer af nye data i produktion – uden at skulle genoptrænes fra bunden hver gang.
Læs mere →Avancerede chatbots og stemmeassistenter, der kan føre naturlige, dynamiske samtaler med kunder i stedet for at følge fastlagte regelsæt.
Læs mere →En AI-assistent, der arbejder side om side med en menneskelig bruger for at øge produktiviteten, men kræver brugerens konstante styring.
Læs mere →En AI-agent, der selvstændigt kan orkestrere kreative arbejdsgange – fra design og billedredigering til videoproduktion – ved at koordinere flere værktøjer i én samlet proces.
Læs mere →Et open source Python-framework til at bygge multi-agent-systemer, hvor AI-agenter tildeles roller, mål og baggrundsviden og samarbejder om komplekse opgaver.
Læs mere →Skræddersyede processorer, som techvirksomheder selv udvikler specifikt til AI-træning og inferens — i stedet for at bruge standardchips fra f.eks. NVIDIA.
Læs mere →En samlet, AI-beriget visning af kundens historik, adfærd og præferencer på tværs af systemer (CRM, support, marketing).
Læs mere →Ændringer i inputdataenes fordeling over tid, som kan gøre eksisterende modeller mindre pålidelige.
Læs mere →Krav til kvalitet, repræsentativitet og dokumentation af de datasæt, der bruges til at træne, validere og teste AI-modeller.
Læs mere →De automatiserede flows, der indsamler, renser, transformerer og leverer data til AI-modeller.
Læs mere →Når angribere bevidst forurener træningsdata eller RAG-dokumenter, så AI-modellen lærer forkerte mønstre.
Læs mere →Beskyttelse af personoplysninger (GDPR) i forbindelse med indsamling af træningsdata og input/output i AI-modeller.
Læs mere →Et mål for, hvor hurtigt en organisation kan automatisere og eksekvere beslutninger ved hjælp af AI – fra datainput til handling.
Læs mere →En avanceret form for Machine Learning inspireret af den menneskelige hjerne (neurale netværk), som bruges til komplekse opgaver som billed- og talegenkendelse.
Læs mere →En autonom AI-agent, der selvstændigt planlægger, søger, læser og syntetiserer information fra flere kilder til en samlet rapport med kilder og visualiseringer.
Læs mere →Kravet om tydeligt at markere AI-genereret eller AI-manipuleret indhold – herunder syntetiske billeder, videoer og lyd – så modtageren kan skelne det fra autentisk materiale.
Læs mere →Kinesisk AI-laboratorium og open source-udfordrer, der har rystet AI-industrien med modeller, som matcher vestlige frontiermodeller til en brøkdel af træningsomkostningerne.
Læs mere →Kinesisk AI-laboratorium og open source-udfordrer, der har rystet AI-industrien med modeller, som matcher vestlige frontiermodeller til en brøkdel af træningsomkostningerne.
Læs mere →Sikkerhedsstrategi hvor flere lag af beskyttelsesforanstaltninger kombineres for at reducere risikoen ved AI-systemer – frem for at stole på én enkelt sikkerhedsmekanisme.
Læs mere →Brugen af kunstig intelligens til at forsvare organisationer mod cyberangreb – ved at opdage, analysere og reagere på trusler i maskinhastighed.
Læs mere →En virtuel kopi af et fysisk objekt, system eller proces, der opdateres med realtidsdata og bruges til simulering, overvågning og optimering.
Læs mere →Et angreb, hvor en aktør systematisk udtrækker viden fra en proprietær AI-model ved at sende tusindvis af forespørgsler og bruge svarene til at træne en kopi.
Læs mere →Et open source-værktøj fra IBM Research, der konverterer dokumenter (PDF, Word, HTML, regneark) til AI-klar formatering med fuld sporbarhed til kilderne.
Læs mere →AI-modeller der er specialtrænet til ét fagområde – f.eks. medicin, jura eller cybersikkerhed – frem for at være generelle sprogmodeller.
Læs mere →En nyere metode til at tilpasse AI-modellers adfærd efter menneskelige præferencer – enklere og mere stabil end den ældre RLHF-tilgang.
Læs mere →En infrastrukturtilgang, hvor en AI-agents tilstand løbende gemmes, så den kan genoptages præcis dér, hvor den stoppede – selv efter nedbrud eller genstart.
Læs mere →Indhold på website eller e-mail, der ændres automatisk baseret på brugerens adfærd og profil, drevet af AI.
Læs mere →AI-beregninger, der foregår direkte på den lokale enhed (f.eks. en smartphone, en maskine i produktionen eller en bil) frem for i skyen.
Læs mere →Numeriske repræsentationer af tekst, billeder eller andre objekter i et flerdimensionelt rum.
Læs mere →Uventede evner eller mønstre, der opstår i AI-modeller, uden at de er blevet eksplicit programmeret eller trænet til dem.
Læs mere →Betegnelsen for AI-løsninger, der er designet til hele organisationen – på tværs af afdelinger, systemer og processer – med fokus på skalerbarhed, governance og forretningsværdi.
Læs mere →EUs lovgivning om kunstig intelligens (træder fuldt i kraft i 2026), som inddeler AI-systemer i risikoklasser og stiller strenge krav til transparens.
Læs mere →EU-Kommissionens frivillige adfærdskodeks, der fastlægger praktiske standarder for mærkning og gennemsigtighed af AI-genereret indhold som tekst, billeder, lyd og video.
Læs mere →En samlet EU-lovpakke fra 2026, der justerer tidsfrister og krav i bl.a. AI Act, og giver virksomheder mere tid til at implementere de strengeste regler.
Læs mere →Et automatiseret test-setup, der systematisk evaluerer kvaliteten, nøjagtigheden og sikkerheden af en AI-models output.
Læs mere →AI-systemer, der er designet således, at mennesker kan forstå, hvordan og hvorfor AI'en traf en bestemt beslutning.
Læs mere →Et centralt bibliotek for de data-features, som bruges på tværs af AI-modeller, så de kan genbruges.
Læs mere →En metode til at træne AI-modeller på distribuerede datasæt uden at samle rå data ét sted – modellen rejser til dataene i stedet for omvendt.
Læs mere →En prompting-teknik, hvor man giver AI'en et par eksempler på den ønskede opgave og output-format, før den skal løse selve opgaven.
Læs mere →Processen hvor man tager en eksisterende AI-model og videre-træner den på virksomhedsspecifikke data.
Læs mere →Kæmpestore, generelle AI-modeller (som GPT-4 eller Claude 3), der er trænet på enorme mængder data og danner basis for mange specifikke applikationer.
Læs mere →Et lovkrav i bl.a. Californien og New York om, at udviklere af de mest avancerede AI-modeller skal dokumentere, hvordan de håndterer katastrofale risici.
Læs mere →En struktureret plan, som AI-virksomheder udgiver for at beskrive, hvordan de identificerer, evaluerer og mitigerer risici ved deres mest avancerede modeller.
Læs mere →Lovgivning rettet specifikt mod de mest avancerede AI-modeller (frontier-modeller), der kræver transparens, risikovurdering og sikkerhedsprocedurer fra udviklerne.
Læs mere →Specialiserede AI-modeller trænet til at finde sårbarheder i software, vurdere trusler og styrke en organisations cyberforsvar.
Læs mere →Betegnelsen for de mest avancerede og kapable AI-modeller, som typisk trænes af de største AI-laboratorier med enorme mængder data og beregningskraft.
Læs mere →En nonprofitorganisation grundlagt af OpenAI, Anthropic, Google og Microsoft til at fremme sikker og ansvarlig udvikling af de mest avancerede AI-modeller.
Læs mere →Googles flagskibs-AI-modelfamilie, der er designet til at arbejde nativt på tværs af tekst, billeder, lyd og video i én samlet arkitektur.
Læs mere →Googles familie af åbne AI-modeller, der kan downloades og køres lokalt eller i egen cloud – uden afhængighed af Googles API.
Læs mere →En type AI, der kan skabe nyt indhold – tekst, billeder, kode eller lyd – baseret på de data, den er trænet på.
Læs mere →Et filformat til kvantiserede AI-modeller, der gør det muligt at køre store sprogmodeller lokalt via værktøjer som Ollama og llama.cpp. GGUF-filer komprimerer modeller markant, så de kan køre på consumer-hardware med reduceret, men brugbar kvalitet.
Læs mere →Googles open source-framework til at bygge, teste og deploye AI-agenter — designet til at fungere med både Gemini-modeller og tredjeparts-LLM'er.
Læs mere →EU AI Acts betegnelse for AI-modeller med bred anvendelighed, der kan løse mange forskellige opgaver og integreres i andre systemer – f.eks. GPT, Claude og Gemini.
Læs mere →En avanceret videreudvikling af RAG, der kombinerer semantisk søgning med vidensgrafer for at forstå komplekse relationer i data.
Læs mere →Teknikken til at forankre en AI's svar i specifikke, verificerbare kilder for at forhindre opdigtede informationer (hallucinationer).
Læs mere →En træningsmetode til store sprogmodeller, der forbedrer deres ræsonneringsevne ved at lade modellen generere flere løsninger og forstærke de bedste – uden behov for en separat evalueringsmodel.
Læs mere →Regler og filtre omkring en LLM, der forhindrer uønsket adfærd – f.eks. læk af persondata eller diskriminerende output.
Læs mere →Når en AI-sprogmodel opfinder fakta eller genererer selvsikre, men fuldstændig forkerte svar.
Læs mere →Disciplinen bag design af den infrastruktur, der styrer, overvåger og sikrer AI-agenter i produktion – fra sandboxing og fejlhåndtering til observerbarhed og adgangsstyring.
Læs mere →Krav og praksis for at sikre, at mennesker overvåger og kan overrule vigtige AI-beslutninger – især i højrisiko-scenarier.
Læs mere →Et systemdesign, hvor menneskelig dømmekraft, godkendelse eller feedback er integreret direkte i AI'ens arbejdsproces.
Læs mere →En arkitekturtilgang, der kombinerer forskellige AI-modeller eller -implementeringsformer – typisk lokal (edge) og cloud-baseret AI – for at opnå den bedste balance mellem hastighed, sikkerhed og kapacitet.
Læs mere →En avanceret RAG-arkitektur, der kombinerer semantisk vektorsøgning med traditionel nøgleordssøgning for at levere mere præcise og pålidelige svar fra virksomhedens data.
Læs mere →Brug af AI til at skræddersy indhold, produktanbefalinger og budskaber til den enkelte bruger i realtid.
Læs mere →Kæmpe datacentre designet specifikt til at træne og køre AI-modeller i stor skala, ofte med hundredtusindvis af GPU'er og et massivt energiforbrug.
Læs mere →AI-systemer, der kan påvirke menneskers sikkerhed eller grundlæggende rettigheder (f.eks. AI til rekruttering eller kreditvurdering).
Læs mere →Selve kørselstidspunktet hvor en AI-model tager imod input og genererer et output.
Læs mere →Disciplinen der handler om at forstå, styre og optimere omkostningerne ved at køre AI-modeller i produktion – fra tokenpriser og hardwarevalg til arkitektoniske beslutninger.
Læs mere →En cloud-baseret tjenestemodel, hvor virksomheder kører AI-modeller via en ekstern udbyder uden selv at eje eller administrere den underliggende GPU-infrastruktur.
Læs mere →Samlebetegnelsen for teknikker, der gør det hurtigere og billigere at køre AI-modeller i produktion – uden at gå på kompromis med kvaliteten.
Læs mere →Et nyt handelsparadigme, hvor AI-agenter selvstændigt kan browse, vælge og betale for varer og tjenester på vegne af brugeren.
Læs mere →AI-funktionalitet, der er så dybt integreret i eksisterende produkter og tjenester, at brugeren ikke aktivt oplever at interagere med AI.
Læs mere →Den internationale standard for et ledelsessystem til ansvarlig brug af kunstig intelligens – AI's svar på ISO 27001 for informationssikkerhed.
Læs mere →Metoder hvor en bruger bevidst manipulerer en AI til at bryde sine egne etiske og sikkerhedsmæssige retningslinjer.
Læs mere →Et governance-framework for AI-agenter, der – ligesom KYC (Know Your Customer) i finanssektoren – sikrer, at autonome AI-systemer er identificerbare, autoriserede og overvågede.
Læs mere →Et centraliseret, struktureret arkiv af virksomhedens interne viden, dokumenter og data, som AI-systemer kan tilgå.
Læs mere →En teknik, hvor viden fra en stor, kompleks AI-model overføres til en mindre og hurtigere model, der bevarer det meste af den oprindelige kvalitet.
Læs mere →En optimeringsstrategi for store sprogmodeller, der gemmer mellemregninger fra tidligere tokens, så modellen ikke behøver at genberegne hele konteksten for hvert nyt token.
Læs mere →Et open source-framework til at bygge stateful, kontrollerbare AI-agentworkflows, hvor flere agenter kan samarbejde i komplekse, flertrinsprocesforløb.
Læs mere →En avanceret AI-type, der ikke blot forstår og genererer tekst, men også selvstændigt kan planlægge og udføre handlinger i digitale systemer – f.eks. bestille varer, udfylde formularer eller navigere i software.
Læs mere →Den tid det tager fra en bruger sender en forespørgsel, til AI’en returnerer et svar.
Læs mere →Modeller der beregner sandsynligheden for, at et lead konverterer til kunde, baseret på adfærd, demografi og historik.
Læs mere →Forskningsfeltet, der forbinder jura og AI-alignment ved at anvende juridiske principper om delegation, ansvar og incitamenter til at sikre, at AI-systemer handler i overensstemmelse med lovgivning og menneskelige værdier.
Læs mere →Metas familie af open source-sprogmodeller, der har demokratiseret adgangen til avanceret AI ved at gøre kraftfulde modeller frit tilgængelige for alle.
Læs mere →Store sprogmodeller, der er trænet på enorme mængder tekstdata for at kunne forstå og generere menneskelignende sprog.
Læs mere →Løbende logning af input, output og modelversioner, så man efterfølgende kan undersøge en AI-beslutning.
Læs mere →En teknik til at tilpasse store AI-modeller ved kun at opdatere en lille brøkdel af modellens parametre – typisk under 1 % – i stedet for at genoptræne hele modellen.
Læs mere →En underkategori af AI, hvor systemer lærer og forbedrer sig fra data uden at være eksplicit programmeret til hver enkelt opgave.
Læs mere →Cloud-hostede AI-agenter, der kører i fuldt administrerede miljøer med sandboxing, checkpointing, adgangsstyring og overvågning – klar til produktion uden egen infrastruktur.
Læs mere →Et forskningsfelt inden for AI-sikkerhed, der handler om at forstå præcis, hvordan en AI-models interne neuroner og kredsløb producerer bestemte svar.
Læs mere →Microsofts open source-platform til at bygge, orkestrere og udrulle AI-agenter og multi-agent-applikationer i .NET og Python.
Læs mere →Microsofts samlede AI-platform, der giver virksomheder adgang til at bygge, tilpasse og udbrede AI-modeller fra en bred vifte af udbydere via Azure.
Læs mere →En AI-arkitektur, hvor flere specialiserede undermodeller ('eksperter') samarbejder, og kun de mest relevante aktiveres for hver opgave.
Læs mere →Et sæt praksisser og værktøjer, der automatiserer og standardiserer hele livscyklussen for ML-modeller.
Læs mere →Et standardiseret dokumentationsark, der beskriver en AI-models formål, træningsdata, begrænsninger og testresultater – nu et lovkrav under EU AI Act for udbydere af generelle AI-modeller.
Læs mere →Et fænomen hvor AI-modeller gradvist forringes i kvalitet, når de trænes på data genereret af andre AI-modeller frem for ægte menneskeskabt data.
Læs mere →