AI Ordbog
Forstå de vigtigste AI-begreber. Fra strategi til teknologi.
En åben kommunikationsprotokol, der lader AI-agenter fra forskellige leverandører og frameworks samarbejde og udveksle information på tværs af platforme.
Læs mere →En åben standard udviklet af IBM til agent-til-agent-kommunikation, der gør det muligt for AI-agenter fra forskellige systemer at samarbejde og udveksle information.
Læs mere →En praksis, hvor konkurrenter systematisk udtrækker viden fra en AI-models API-svar for at træne deres egne modeller – uden tilladelse eller betaling.
Læs mere →Et netværk af mange uafhængige AI-agenter, der samarbejder decentralt om at løse komplekse, storskalerede opgaver.
Læs mere →AI-systemer, der har en grad af handlekraft (agency) – de kan planlægge, træffe beslutninger og udføre handlinger autonomt for at nå et mål.
Læs mere →En webbrowser med indbygget AI-agent, der selvstændigt kan navigere websider, udfylde formularer og udføre flertrinsopgaver på brugerens vegne.
Læs mere →En softwareudviklingsmetode, hvor AI-agenter selvstændigt skriver, tester og refaktorerer kode baseret på overordnede instruktioner fra en udvikler.
Læs mere →En ny handelsform, hvor AI-agenter selvstændigt researscher, sammenligner og gennemfører køb på vegne af forbrugere eller virksomheder.
Læs mere →Ingeniørdisciplinen bag design, opbygning og drift af AI-agentsystemer – fra arkitektur og orkestrering til test og overvågning.
Læs mere →Disciplinen og de processer, der sikrer kontrol, overvågning og ansvarlighed på tværs af en virksomheds fleet af autonome AI-agenter.
Læs mere →En avanceret form for RAG, hvor autonome AI-agenter styrer hele søge- og svarprocessen – fra at vælge datakilder til at validere og sammensætte det endelige svar.
Læs mere →Skaleringsmetode hvor AI-agenter interagerer med andre agenter og værktøjer for at løse komplekse opgaver – en ny fase ud over traditionel træning og inferens.
Læs mere →Den operationelle disciplin for styring, overvågning og drift af AI-agenter i produktion – svarende til hvad DevOps er for software og MLOps for maskinlæring.
Læs mere →Paraplybetegnelsen for maskiner og systemer, der kan udføre opgaver, som normalt kræver menneskelig intelligens (f.eks. problemløsning og mønstergenkendelse).
Læs mere →Et autonomt AI-system, der ikke bare svarer på spørgsmål, men aktivt kan udføre handlinger i andre softwaresystemer.
Læs mere →En platform eller markedsplads, hvor virksomheder kan finde, sammenligne og implementere specialiserede AI-agenter til specifikke forretningsopgaver.
Læs mere →Mekanismer der gør det muligt for AI-agenter at huske information på tværs af sessioner og interaktioner, så de kan opbygge kontekst og blive mere personaliserede over tid.
Læs mere →Fælles standarder og protokoller, der sikrer, at AI-agenter fra forskellige leverandører kan kommunikere sikkert og arbejde sammen.
Læs mere →En sporbar log over beslutninger, modelversioner, træningsdata og ændringer, der gør det muligt at revidere et AI-system.
Læs mere →En økonomisk begrundelse for et AI-projekt, der afvejer implementeringsomkostninger mod forventet ROI, tidsbesparelser og øget omsætning.
Læs mere →Et tværfagligt team, der driver AI-strategi, standarder, governance og best practice på tværs af virksomheden.
Læs mere →Den praktiske proces med at sikre, at en virksomheds brug af AI lever op til gældende love, regler og branchestandarder – herunder EU AI Act.
Læs mere →Automatisering af indholdsproduktion (tekst, billeder, video) til SEO, sociale medier og e-mail marketing ved hjælp af generativ AI.
Læs mere →En samlet infrastruktur, der automatiserer hele livscyklussen for AI-træningsdata – fra generering og augmentering til kvalitetskontrol og evaluering i stor skala.
Læs mere →Et datacenter specifikt designet og optimeret til at træne og køre AI-modeller i stor skala – en fabrik, der producerer intelligens.
Læs mere →Disciplinen for at styre, optimere og forudsige omkostningerne ved en virksomheds AI-infrastruktur og -forbrug på tværs af cloud, on-premise og hybrid-miljøer.
Læs mere →Det interne regelsæt, framework og processer en virksomhed sætter op for at sikre, at AI udvikles og bruges etisk, sikkert og lovligt.
Læs mere →Algoritmer der automatisk vurderer og rangerer indkomne leads, ofte integreret direkte i CRM-systemer som HubSpot.
Læs mere →Det generelle vidensniveau i organisationen om, hvad AI kan og ikke kan, så ledere og medarbejdere kan træffe kvalificerede beslutninger.
Læs mere →Brug af AI til at automatisere, optimere og tidsindstille marketingkampagner på tværs af kanaler.
Læs mere →AI-systemers evne til at huske kontekst, præferencer og tidligere samtaler på tværs af sessioner – i modsætning til traditionelle stateless modeller.
Læs mere →Den måde en virksomhed organiserer roller, ansvar, processer og teknologier omkring AI, så det bliver en integreret del af forretningen.
Læs mere →Styring og koordinering af flere AI-komponenter og workflows (f.eks. RAG, agenter, API-kald) i én samlet løsning.
Læs mere →En vurdering af, hvor klar en virksomhed er til at implementere AI – målt på data, infrastruktur, kultur og kompetencer.
Læs mere →Et kontrolleret testmiljø oprettet af en national myndighed, hvor virksomheder kan udvikle og afprøve innovative AI-systemer under myndighedstilsyn – før de lanceres på markedet.
Læs mere →Den systematiske proces med at identificere, vurdere og mitigere risici ved AI – fra datasikkerhed og bias til regulatoriske konsekvenser.
Læs mere →En konkret plan, der beskriver virksomhedens AI-rejse over 12–36 måneder – fra pilotprojekter til fuld skalering.
Læs mere →Sikkerhedsmekanismer, der overvåger og håndhæver regler for AI-agenter i realtid – mens de kører, ikke kun før deployment.
Læs mere →AI-værktøjer, der hjælper sælgere med at forberede møder, skrive mails, opsummere kundekald og foreslå næste skridt.
Læs mere →Et lukket, sikkert testmiljø, hvor medarbejdere kan eksperimentere med AI-værktøjer uden risiko for at lække data til internettet.
Læs mere →Et forsikringsvilkår, der kræver dokumenteret AI-sikkerhed – fx red teaming, risikovurdering og tekniske sikkerhedsforanstaltninger – som forudsætning for dækning.
Læs mere →Lavkvalitetsindhold masseproduceret med generativ AI, som mangler dybde, originalitet og reel værdi for læseren.
Læs mere →En samlet desktop- eller mobilapplikation, der kombinerer flere AI-værktøjer – chat, kodning, browsing og agenter – i én fælles grænseflade.
Læs mere →Inddelingen af AI-systemer i risikoniveauer (uacceptabel, høj, begrænset, minimal risiko) ifølge EU AI Act.
Læs mere →Det lag af specifikke værktøjer og plugins, som giver en AI-agent evnen til at udføre handlinger i eksterne systemer.
Læs mere →Processen hvor en virksomhed integrerer AI i kerneprocesser for at ændre og optimere forretningsmodellen.
Læs mere →Det systematiske arbejde med at måle, dokumentere og optimere den forretningsværdi, som AI-løsninger faktisk skaber efter go-live.
Læs mere →Teknikker til at indlejre usynlige, maskinlæsbare signaler i AI-genereret indhold, så det efterfølgende kan identificeres som syntetisk.
Læs mere →Lovpligtig mærkning af indhold, der er produceret eller væsentligt redigeret af AI, så modtageren kan se, at AI har været involveret.
Læs mere →IT-infrastruktur, der fra grunden er designet til AI-arbejdsbelastninger – med specialiserede chips, netværk og storage optimeret til modeltræning og inferens.
Læs mere →Teknikker, der gør det muligt for AI-agenter automatisk at kontrollere rigtigheden af deres egne svar og handlinger.
Læs mere →Princippet om at en organisation eller nation bevarer kontrol over sine AI-systemer, data og infrastruktur – uafhængigt af udenlandske leverandører og cloud-platforme.
Læs mere →Indbyggede fordomme eller skævheder i en AI-model, oftest opstået fordi træningsdataen var mangelfuld eller forudindtaget.
Læs mere →Praksissen med at designe og implementere AI med fokus på etik, gennemsigtighed og fairness.
Læs mere →Koden der gør det muligt for to systemer (f.eks. HubSpot og en LLM) at tale sammen og udveksle data.
Læs mere →En åben teknisk standard, der kryptografisk dokumenterer et digitalt indholds oprindelse, herunder om det er skabt eller redigeret med AI.
Læs mere →Brug af AI til automatisk at transskribere salgskald eller kundeservice-samtaler og udtrække nøgleemner, sentiment og næste skridt.
Læs mere →En prompting-teknik, der beder AI'en om at tænke højt og forklare sine mellemregninger trin-for-trin, før den giver det endelige svar.
Læs mere →Organisatoriske tiltag, træning og kommunikation, der skal til for at medarbejdere accepterer og bruger nye AI-løsninger i praksis.
Læs mere →Processen hvor lange dokumenter brydes ned i mindre, meningsfulde bidder (chunks), før de lægges ind i en AI's database.
Læs mere →AI-modeller, der identificerer kunder, som er i høj risiko for at opsige deres abonnement eller forlade virksomheden, før det sker.
Læs mere →AI-modeller, der forstår og kan arbejde på tværs af flere forskellige medietyper, såsom tekst, billeder, lyd og video på samme tid.
Læs mere →AI-tjenester leveret via internettet fra store udbydere (som Google Cloud eller Azure), som kræver minimal lokal infrastruktur.
Læs mere →En tilgang, der kombinerer flere AI-teknikker – fx machine learning, videngrafer, NLP og regelbaserede systemer – i én samlet løsning for at håndtere komplekse forretningsproblemer.
Læs mere →En AI-kapabilitet, hvor modellen selvstændigt kan betjene en computer – klikke, skrive, navigere mellem programmer og udføre opgaver på brugerens vegne.
Læs mere →En sikkerhedsteknologi, der beskytter data, mens den aktivt behandles af AI-modeller, ved at køre beregninger i krypterede hardware-enklaver.
Læs mere →Den formelle proces hvor virksomheden får vurderet, om et højrisiko AI-system lever op til kravene i AI Act, før lancering.
Læs mere →En tilgang til AI-sikkerhed, hvor modellen styres af et sæt nedskrevne principper ('en forfatning') og i høj grad evaluerer sig selv frem for udelukkende at afhænge af menneskelig feedback.
Læs mere →En teknik, der gemmer og genbruger dele af en AI-models kontekst mellem forespørgsler for at reducere omkostninger og svartider.
Læs mere →Disciplinen at designe og styre den kontekst – data, instruktioner og hukommelse – som en AI-model modtager for at sikre præcise og relevante svar.
Læs mere →Den maksimale mængde tekst (input + historik), en LLM kan 'have i hovedet' på én gang.
Læs mere →Avancerede chatbots og stemmeassistenter, der kan føre naturlige, dynamiske samtaler med kunder i stedet for at følge fastlagte regelsæt.
Læs mere →En AI-assistent, der arbejder side om side med en menneskelig bruger for at øge produktiviteten, men kræver brugerens konstante styring.
Læs mere →En samlet, AI-beriget visning af kundens historik, adfærd og præferencer på tværs af systemer (CRM, support, marketing).
Læs mere →Ændringer i inputdataenes fordeling over tid, som kan gøre eksisterende modeller mindre pålidelige.
Læs mere →Krav til kvalitet, repræsentativitet og dokumentation af de datasæt, der bruges til at træne, validere og teste AI-modeller.
Læs mere →De automatiserede flows, der indsamler, renser, transformerer og leverer data til AI-modeller.
Læs mere →Når angribere bevidst forurener træningsdata eller RAG-dokumenter, så AI-modellen lærer forkerte mønstre.
Læs mere →Beskyttelse af personoplysninger (GDPR) i forbindelse med indsamling af træningsdata og input/output i AI-modeller.
Læs mere →Et mål for, hvor hurtigt en organisation kan automatisere og eksekvere beslutninger ved hjælp af AI – fra datainput til handling.
Læs mere →En avanceret form for Machine Learning inspireret af den menneskelige hjerne (neurale netværk), som bruges til komplekse opgaver som billed- og talegenkendelse.
Læs mere →Sikkerhedsstrategi hvor flere lag af beskyttelsesforanstaltninger kombineres for at reducere risikoen ved AI-systemer – frem for at stole på én enkelt sikkerhedsmekanisme.
Læs mere →En virtuel kopi af et fysisk objekt, system eller proces, der opdateres med realtidsdata og bruges til simulering, overvågning og optimering.
Læs mere →Et angreb, hvor en aktør systematisk udtrækker viden fra en proprietær AI-model ved at sende tusindvis af forespørgsler og bruge svarene til at træne en kopi.
Læs mere →En nyere metode til at tilpasse AI-modellers adfærd efter menneskelige præferencer – enklere og mere stabil end den ældre RLHF-tilgang.
Læs mere →Indhold på website eller e-mail, der ændres automatisk baseret på brugerens adfærd og profil, drevet af AI.
Læs mere →AI-beregninger, der foregår direkte på den lokale enhed (f.eks. en smartphone, en maskine i produktionen eller en bil) frem for i skyen.
Læs mere →Numeriske repræsentationer af tekst, billeder eller andre objekter i et flerdimensionelt rum.
Læs mere →Betegnelsen for AI-løsninger, der er designet til hele organisationen – på tværs af afdelinger, systemer og processer – med fokus på skalerbarhed, governance og forretningsværdi.
Læs mere →EUs lovgivning om kunstig intelligens (træder fuldt i kraft i 2026), som inddeler AI-systemer i risikoklasser og stiller strenge krav til transparens.
Læs mere →Et automatiseret test-setup, der systematisk evaluerer kvaliteten, nøjagtigheden og sikkerheden af en AI-models output.
Læs mere →AI-systemer, der er designet således, at mennesker kan forstå, hvordan og hvorfor AI'en traf en bestemt beslutning.
Læs mere →Et centralt bibliotek for de data-features, som bruges på tværs af AI-modeller, så de kan genbruges.
Læs mere →En metode til at træne AI-modeller på distribuerede datasæt uden at samle rå data ét sted – modellen rejser til dataene i stedet for omvendt.
Læs mere →En prompting-teknik, hvor man giver AI'en et par eksempler på den ønskede opgave og output-format, før den skal løse selve opgaven.
Læs mere →Processen hvor man tager en eksisterende AI-model og videre-træner den på virksomhedsspecifikke data.
Læs mere →Kæmpestore, generelle AI-modeller (som GPT-4 eller Claude 3), der er trænet på enorme mængder data og danner basis for mange specifikke applikationer.
Læs mere →En struktureret plan, som AI-virksomheder udgiver for at beskrive, hvordan de identificerer, evaluerer og mitigerer risici ved deres mest avancerede modeller.
Læs mere →Lovgivning rettet specifikt mod de mest avancerede AI-modeller (frontier-modeller), der kræver transparens, risikovurdering og sikkerhedsprocedurer fra udviklerne.
Læs mere →Betegnelsen for de mest avancerede og kapable AI-modeller, som typisk trænes af de største AI-laboratorier med enorme mængder data og beregningskraft.
Læs mere →En nonprofitorganisation grundlagt af OpenAI, Anthropic, Google og Microsoft til at fremme sikker og ansvarlig udvikling af de mest avancerede AI-modeller.
Læs mere →En type AI, der kan skabe nyt indhold – tekst, billeder, kode eller lyd – baseret på de data, den er trænet på.
Læs mere →EU AI Acts betegnelse for AI-modeller med bred anvendelighed, der kan løse mange forskellige opgaver og integreres i andre systemer – f.eks. GPT, Claude og Gemini.
Læs mere →En avanceret videreudvikling af RAG, der kombinerer semantisk søgning med vidensgrafer for at forstå komplekse relationer i data.
Læs mere →Teknikken til at forankre en AI's svar i specifikke, verificerbare kilder for at forhindre opdigtede informationer (hallucinationer).
Læs mere →En træningsmetode til store sprogmodeller, der forbedrer deres ræsonneringsevne ved at lade modellen generere flere løsninger og forstærke de bedste – uden behov for en separat evalueringsmodel.
Læs mere →Regler og filtre omkring en LLM, der forhindrer uønsket adfærd – f.eks. læk af persondata eller diskriminerende output.
Læs mere →Når en AI-sprogmodel opfinder fakta eller genererer selvsikre, men fuldstændig forkerte svar.
Læs mere →Krav og praksis for at sikre, at mennesker overvåger og kan overrule vigtige AI-beslutninger – især i højrisiko-scenarier.
Læs mere →Et systemdesign, hvor menneskelig dømmekraft, godkendelse eller feedback er integreret direkte i AI'ens arbejdsproces.
Læs mere →En arkitekturtilgang, der kombinerer forskellige AI-modeller eller -implementeringsformer – typisk lokal (edge) og cloud-baseret AI – for at opnå den bedste balance mellem hastighed, sikkerhed og kapacitet.
Læs mere →En avanceret RAG-arkitektur, der kombinerer semantisk vektorsøgning med traditionel nøgleordssøgning for at levere mere præcise og pålidelige svar fra virksomhedens data.
Læs mere →Brug af AI til at skræddersy indhold, produktanbefalinger og budskaber til den enkelte bruger i realtid.
Læs mere →Kæmpe datacentre designet specifikt til at træne og køre AI-modeller i stor skala, ofte med hundredtusindvis af GPU'er og et massivt energiforbrug.
Læs mere →AI-systemer, der kan påvirke menneskers sikkerhed eller grundlæggende rettigheder (f.eks. AI til rekruttering eller kreditvurdering).
Læs mere →Selve kørselstidspunktet hvor en AI-model tager imod input og genererer et output.
Læs mere →AI-funktionalitet, der er så dybt integreret i eksisterende produkter og tjenester, at brugeren ikke aktivt oplever at interagere med AI.
Læs mere →Den internationale standard for et ledelsessystem til ansvarlig brug af kunstig intelligens – AI's svar på ISO 27001 for informationssikkerhed.
Læs mere →Metoder hvor en bruger bevidst manipulerer en AI til at bryde sine egne etiske og sikkerhedsmæssige retningslinjer.
Læs mere →Et centraliseret, struktureret arkiv af virksomhedens interne viden, dokumenter og data, som AI-systemer kan tilgå.
Læs mere →En teknik, hvor viden fra en stor, kompleks AI-model overføres til en mindre og hurtigere model, der bevarer det meste af den oprindelige kvalitet.
Læs mere →Et open source-framework til at bygge stateful, kontrollerbare AI-agentworkflows, hvor flere agenter kan samarbejde i komplekse, flertrinsprocesforløb.
Læs mere →Den tid det tager fra en bruger sender en forespørgsel, til AI’en returnerer et svar.
Læs mere →Modeller der beregner sandsynligheden for, at et lead konverterer til kunde, baseret på adfærd, demografi og historik.
Læs mere →Store sprogmodeller, der er trænet på enorme mængder tekstdata for at kunne forstå og generere menneskelignende sprog.
Læs mere →Løbende logning af input, output og modelversioner, så man efterfølgende kan undersøge en AI-beslutning.
Læs mere →En underkategori af AI, hvor systemer lærer og forbedrer sig fra data uden at være eksplicit programmeret til hver enkelt opgave.
Læs mere →Et forskningsfelt inden for AI-sikkerhed, der handler om at forstå præcis, hvordan en AI-models interne neuroner og kredsløb producerer bestemte svar.
Læs mere →En AI-arkitektur, hvor flere specialiserede undermodeller ('eksperter') samarbejder, og kun de mest relevante aktiveres for hver opgave.
Læs mere →Et sæt praksisser og værktøjer, der automatiserer og standardiserer hele livscyklussen for ML-modeller.
Læs mere →Et standardiseret dokumentationsark, der beskriver en AI-models formål, træningsdata, begrænsninger og testresultater – nu et lovkrav under EU AI Act for udbydere af generelle AI-modeller.
Læs mere →Et fænomen hvor AI-modeller gradvist forringes i kvalitet, når de trænes på data genereret af andre AI-modeller frem for ægte menneskeskabt data.
Læs mere →En åben standard der forbinder AI-modeller med eksterne værktøjer, databaser og forretningssystemer – tænk på det som en universel adapter mellem AI og virksomhedens data.
Læs mere →Processen hvor en AI- eller ML-model flyttes fra udviklingsmiljø til drift.
Læs mere →Når en AI-models præcision falder over tid, fordi verden og data ændrer sig i forhold til dens træningsdata.
Læs mere →Løbende overvågning af en AI-models performance i produktion for at opdage fejl, datadrift eller bias.
Læs mere →En optimeringsteknik, der reducerer en AI-models størrelse og beregningskrav ved at sænke præcisionen af dens interne talrepræsentation.
Læs mere →Et katalog over alle AI-modeller i organisationen, med versioner, ejerskab, performance-metrics og godkendelsesstatus.
Læs mere →Beskyttelse af AI-modeller mod cyberangreb som model-tyveri, prompt injection, data poisoning og adversarial attacks.
Læs mere →Et systemdesign, hvor flere specialiserede AI-agenter opererer sammen, ofte med hver deres specifikke rolle og værktøjer.
Læs mere →En arkitektur hvor flere specialiserede AI-agenter samarbejder om en opgave for at opnå bedre resultater.
Læs mere →AI-modeller, der fra starten er trænet til at forstå og producere flere datatyper – tekst, billeder, lyd og video – i én samlet arkitektur.
Læs mere →NVIDIAs sikkerhedsplatform for AI-agenter, der tilføjer sandboxing, adgangskontrol og privatlivsbeskyttelse til autonome AI-systemer i virksomheder.
Læs mere →NVIDIAs familie af open source-sprogmodeller, designet til enterprise-brug med høj ydeevne og lav ressourceforbrug via Mixture of Experts-arkitektur.
Læs mere →En AI-tilgang, der kombinerer neurale netværks mønstergenkendelse med symbolsk logik og regelbaseret ræsonnering for mere pålidelige og forklarlige resultater.
Læs mere →AI-drevet anbefaling af den mest relevante næste handling overfor en kunde – f.eks. hvilket tilbud eller indhold der bør komme nu.
Læs mere →NVIDIAs platform af præoptimerede containers, der gør det enkelt at deploye og køre AI-modeller i produktion på NVIDIA-hardware.
Læs mere →Evnen til at overvåge, måle og forstå de indre processer i et AI-system i realtid for at sikre kvalitet, performance og sikkerhed.
Læs mere →AI-systemer der kan forstå og behandle hundredvis af sprog, herunder underrepræsenterede sprog, uden separate modeller for hvert sprog.
Læs mere →AI-løsninger, der hostes lokalt på virksomhedens egne servere frem for i skyen.
Læs mere →AI-modeller, hvor kildekoden er frit tilgængelig, hvilket giver virksomheder stor frihed til at tilpasse og hoste dem lokalt.
Læs mere →Et open-source værktøj/framework designet til at lade AI-agenter interagere dybt med digitale miljøer og udtrække data effektivt.
Læs mere →Den software-infrastruktur, der binder forskellige AI-modeller, databaser, API'er og brugergrænseflader sammen til én fungerende løsning.
Læs mere →En sikkerhedsstandard fra OWASP, der identificerer de ti mest kritiske sikkerhedsrisici ved autonome AI-agenter i produktion.
Læs mere →En AI-agent, der kører kontinuerligt i baggrunden frem for kun at reagere på enkeltstående forespørgsler – altid tændt, altid klar.
Læs mere →AI-systemer designet til at forstå og interagere med den fysiske verden – fra robotter og autonome køretøjer til industriel automatisering.
Læs mere →Automatiserede processer, der fjerner eller slører personhenførbare oplysninger (PII) fra data, inden det sendes til en AI-model.
Læs mere →Samlebetegnelse for teknikker, der forbedrer en AI-models evner efter den indledende træning – fx RLHF, DPO og domænespecifik tilpasning.
Læs mere →AI der analyserer historiske data for at forudsige fremtidige begivenheder – f.eks. hvilke leads der er tættest på at købe.
Læs mere →Teknik hvor man kæder flere prompts sammen i en sekvens, så output fra ét trin bliver input til næste.
Læs mere →Kunsten at formulere præcise og effektive instruktioner (prompts) til en AI-model for at få det bedst mulige output.
Læs mere →Et sikkerhedsangreb, hvor ondsindede instruktioner skjules i input for at få en LLM til at ignorere regler og udføre uønskede handlinger.
Læs mere →En genbrugelig prompt-struktur med pladsholdere, som kan udfyldes dynamisk i workflows og integrationer.
Læs mere →Et lille, afgrænset AI-projekt, der testes i praksis for at bevise, at teknologien fungerer og skaber værdi, før fuld udrulning.
Læs mere →En metode, hvor man kobler en sprogmodel op på virksomhedens egne, lukkede data for at undgå hallucinationer.
Læs mere →En ny kategori af AI-modeller, der er designet til at "tænke trin-for-trin" gennem komplekse problemer, i stedet for at generere svar med det samme.
Læs mere →Kontrollerede tests, hvor eksperter bevidst forsøger at få en AI til at opføre sig skadeligt for at lukke sikkerhedshuller.
Læs mere →Processen og infrastrukturen, der fremsøger relevant information fra en virksomheds vidensbase for at forsyne en AI-model med kontekst.
Læs mere →Krav i EU AI Act om, at højrisiko AI-systemer skal have et dokumenteret risikostyringssystem, der løbende opdateres.
Læs mere →En søgeteknik, hvor AI forstår betydningen bag et spørgsmål og ikke kun matcher eksakte keywords.
Læs mere →Brugen af AI-værktøjer blandt medarbejdere uden formel godkendelse eller overvågning fra it-afdelingen.
Læs mere →Mindre og mere specialiserede sprogmodeller, der kræver langt mindre regnekraft og data end de massive LLM'er.
Læs mere →En inferensteknik, der accelererer AI-modellers svartid ved at lade en mindre model 'gætte' de næste tokens, som en større model derefter verificerer i ét hug.
Læs mere →Den kollektive adfærd og problemløsningsevne, der opstår, når mange simple AI-agenter interagerer med hinanden.
Læs mere →Styringen og koordineringen af en gruppe AI-agenter (en sværm) for at sikre, at de arbejder mod et fælles mål uden at spænde ben for hinanden.
Læs mere →Kunstigt genereret data, der statistisk set minder om ægte data, men ikke indeholder nogen rigtige personoplysninger.
Læs mere →Indhold – video, lyd, billeder eller tekst – der er helt eller delvist skabt af AI, ofte så realistisk at det er svært at skelne fra autentisk materiale.
Læs mere →Den overordnede instruktion, som sætter rammerne for, hvordan en sprogmodel skal opføre sig, før brugeren stiller spørgsmål.
Læs mere →Den dokumentation virksomheden skal fremvise for et AI-system – herunder formål, datasæt, modeller, test og kontrolmekanismer.
Læs mere →En generativ AI-teknologi, der skaber videosekvenser direkte fra tekstbeskrivelser – fra enkle animationer til realistiske filmklip.
Læs mere →En indstilling i sprogmodeller, der styrer graden af tilfældighed og 'kreativitet' i AI'ens svar.
Læs mere →En teknik hvor AI-modellen bruger ekstra beregningstid på at "tænke længere" over svære spørgsmål, frem for blot at svare med det samme – det forbedrer præcisionen markant.
Læs mere →Den mindste byggeklods af tekst (typisk et ord eller en stavelse), som en sprogmodel læser og genererer.
Læs mere →Økonomien bag AI-forbrug, hvor tokens – de små dataenheder, en AI-model behandler – er den grundlæggende valuta for beregning af omkostninger og værdi.
Læs mere →Når en LLM automatisk kan kalde eksterne værktøjer eller API’er for at udføre handlinger og hente live-data.
Læs mere →Metoden til at vælge og rangere AI-brugsscenarier baseret på potentiel forretningsværdi, teknisk kompleksitet og risiko.
Læs mere →En specialiseret database til at gemme numeriske vektor-repræsentationer (embeddings) af data, som muliggør semantisk søgning.
Læs mere →NVIDIAs næste generation af GPU-arkitektur efter Blackwell, designet til at levere op til 10 gange bedre energieffektivitet pr. AI-beregning.
Læs mere →En AI-assisteret udviklingsmetode, hvor man beskriver ønsket funktionalitet i naturligt sprog og lader AI generere koden – fokus flyttes fra at skrive kode til at styre resultatet.
Læs mere →En AI-model, der opbygger en intern repræsentation af den fysiske verden og kan forudsige, hvordan objekter og miljøer opfører sig over tid.
Læs mere →En sikkerhedsramme, der udvider Zero Trust-princippet til AI-systemer – ingen AI-komponent stoler automatisk på andre, og al adgang verificeres løbende.
Læs mere →En virksomhedsmodel, hvor AI-agenter varetager alle operationelle funktioner – fra strategi og ressourceallokering til kundeservice og regnskab – uden menneskelig medarbejderindsats.
Læs mere →En AI-models evne til at udføre en opgave, den aldrig er blevet eksplicit trænet til eller har set eksempler på før.
Læs mere →