Skip to content
AI Ordbog / CAISI (Center for AI Standards and Innovation)

CAISI (Center for AI Standards and Innovation)

CAISI (Center for AI Standards and Innovation) er USA's centrale organ for AI-standarder under NIST. Forstå dets rolle, virkning for virksomheder og agent-initiativer.

CAISI (Center for AI Standards and Innovation)
Frame 4
Frame 3
Frame 2
Frame 1
Frame 5
CAISI (Center for AI Standards and Innovation)
AI ORDBOG

Hvad er CAISI, og hvordan fungerer det?

CAISI blev oprettet i juni 2025, da det amerikanske handelsministerium under sekretær Howard Lutnick omdøbte det eksisterende U.S. AI Safety Institute (AISI). AISI var oprindeligt grundlagt i november 2023 som følge af præsident Bidens Executive Order 14110 om sikker og troværdig AI. Med omdøbningen fulgte et strategisk skifte fra et primært sikkerhedsfokus til en bredere mission, der også omfatter standardisering og innovationsfremme.

Centret arbejder med tre kernefunktioner. For det første udvikler CAISI retningslinjer og best practices til at måle og forbedre sikkerheden i AI-systemer, i samarbejde med andre NIST-afdelinger. For det andet indgår CAISI frivillige aftaler med private AI-udviklere om præ-deployments-evalueringer, hvor frontier-modeller testes for risici inden for cybersikkerhed, biosikkerhed og kemiske våben. For det tredje leder CAISI uklassificerede evalueringer af både amerikanske og udenlandske AI-systemers kapabiliteter.

I praksis betyder det, at virksomheder som Google DeepMind, Microsoft og xAI giver CAISI tidlig adgang til deres nyeste modeller, før de lanceres kommercielt. CAISI har eksempelvis evalueret DeepSeek V4 Pro i april 2026 og vurderet, at modellens kapabiliteter ligger ca. otte måneder bag de førende frontier-modeller.

CAISI repræsenterer også USA internationalt og arbejder aktivt for at sikre, at amerikanske AI-standarder bliver toneangivende globalt, frem for at lade europæiske eller asiatiske reguleringsrammer dominere.

CAISI's betydning for virksomheder

Selvom CAISI er et amerikansk statsligt organ, rækker dets indflydelse langt ud over USA's grænser. De standarder og evalueringsmetoder, CAISI udvikler, bliver referencerammen for, hvad der betragtes som robust og ansvarlig AI i enterprise-sammenhæng. For danske virksomheder, der bruger AI-modeller fra amerikanske udbydere, giver CAISI's arbejde en ekstra tryghedsgaranti.

CAISI's AI Agent Standards Initiative, lanceret i februar 2026, er særligt relevant for virksomheder, der eksperimenterer med Agentic AI og AI-agenter. Initiativet arbejder på at etablere tekniske standarder og protokoller, der sikrer, at AI-agenter kan fungere sikkert på vegne af brugere og kommunikere på tværs af systemer. Det adresserer direkte de udfordringer, der opstår, når autonome AI-systemer skal operere i kritiske forretningsprocesser.

For virksomheder, der arbejder med AI Governance, udgør CAISI's frivillige rammer et vigtigt supplement til den europæiske EU AI Act. Hvor EU AI Act er lovgivning med bindende krav, tilbyder CAISI frivillige standarder og testmetoder, der kan hjælpe virksomheder med at dokumentere compliance og demonstrere ansvarlighed over for kunder, investorer og myndigheder.

Brancheorganisationer som ITI (Information Technology Industry Council) og BSA (Business Software Alliance) har hilst CAISI velkommen som et skridt mod klarhed og konsistens i den amerikanske AI-tilgang, der giver innovatorer de værktøjer, de behøver.

Hvad CAISI ikke er

CAISI er ikke et reguleringsagentur. Det udsteder ikke bøder, kræver ikke licenser og håndhæver ikke lovgivning. I modsætning til EU's tilgang med bindende regler under AI Act arbejder CAISI udelukkende med frivillige aftaler, standarder og evalueringer. Det er et vigtigt skel: CAISI kan anbefale og teste, men ikke forbyde.

Det er heller ikke korrekt at betragte CAISI som en direkte fortsættelse af det oprindelige AI Safety Institute. Omdøbningen i 2025 var ledsaget af et reelt mandatskifte, budgetnedskæringer og en reduktion af personale. Fokus flyttede fra bredt sikkerhedsarbejde til et mere målrettet fokus på demonstrerbare risici og innovationsfremmende standarder. Kritikere har påpeget, at skiftet også repræsenterer en politisk omprioritering under Trump-administrationen.

Endelig er CAISI ikke en erstatning for virksomheders eget AI-governance-arbejde. CAISI's standarder er et supplement, ikke et alternativ, til interne processer for risikostyring, compliance og ansvarlig AI-brug.

Relaterede termer

AI Governance: Overordnet styring, politikker og kontrolmekanismer for AI-systemer i organisationer.

EU AI Act: EU's lovgivningsramme for AI med bindende krav baseret på risikokategorier.

Ansvarlig AI: Principper og praksisser for etisk, gennemsigtig og fair brug af AI.

AI Agent Standards: Tekniske standarder for interoperabilitet og sikkerhed i autonome AI-agentsystemer.

AI Compliance: Processerne for at sikre, at AI-systemer overholder gældende lovgivning og standarder.

Frontier Model: De mest avancerede AI-modeller, som CAISI evaluerer for nationale sikkerhedsrisici.

Red Teaming for AI: Systematisk test af AI-systemer for sårbarheder, en metode CAISI anvender i sine evalueringer.