Novo Nordisk har indgået et strategisk partnerskab med OpenAI, der skal integrere AI på tværs af...
RAISE Act er New Yorks lov om sikkerhed og transparens for frontier AI-modeller. Forstå kravene, hvem den rammer, og hvad den betyder for din virksomhed.


RAISE Act pålægger såkaldte "large developers" at udarbejde, vedligeholde og offentliggøre en omfattende sikkerheds- og sikringsprotokol for deres frontier AI-modeller. Protokollen skal beskrive, hvordan udvikleren vurderer sikkerhedsrisici, anvender risikobegrænsende teknikker, bruger tredjepart til at evaluere katastroferisiko, beskytter mod modeltyveri og håndterer sikkerhedshændelser.
En frontier-model er defineret som en AI-model trænet med mere end 10^26 beregningsoperationer (FLOPs) til en beregningsomkostning over 100 millioner USD. Det omfatter også modeller fremstillet via Knowledge Distillation fra sådanne modeller, hvis destillationsomkostningen overstiger 5 millioner USD.
Loven kræver desuden hændelsesrapportering inden for 72 timer, når udvikleren har grund til at tro, at en sikkerhedshændelse er opstået. Ved hændelser med umiddelbar risiko for død eller alvorlig fysisk skade strammes fristen til 24 timer.
Derudover skal udviklere gennemføre en årlig uafhængig revision af deres sikkerheds- og sikringsprotokoller. Et resumé af revisionen skal offentliggøres, og væsentlige ændringer i protokollen skal kommunikeres løbende.
Tilsynet varetages af et nyt AI-tilsynskontor under New York Department of Financial Services (DFS), der får beføjelser til at overvåge overholdelse, udstede regler og offentliggøre årlige rapporter om status for frontier AI-sikkerhed.
RAISE Act rammer direkte udviklere med en årlig omsætning over 500 millioner USD, der udvikler eller driver frontier-modeller i New York. Det betyder i praksis virksomheder som OpenAI, Google, Anthropic og Meta. Virksomheder, der udelukkende bruger, licenserer eller bygger applikationer oven på andres modeller, er ikke direkte omfattet.
Men den indirekte effekt er betydelig. Når frontier-udviklere skal offentliggøre deres sikkerhedsprotokoller og hændelsesrapporter, får alle virksomheder, der anvender disse modeller, et nyt grundlag for leverandørvurdering. Det bliver muligt at sammenligne udvikleres sikkerhedsmodenhed på tværs af udbydere, præcis som man i dag vurderer leverandørers AI Governance-praksis.
For europæiske virksomheder, der allerede arbejder med EU AI Act, er RAISE Act et tegn på, at det amerikanske reguleringslandskab bevæger sig i samme retning. Virksomheder, der har investeret i compliance-strukturer til EU AI Act, vil opdage, at mange af de samme principper gælder: risikovurdering, dokumentation, transparens og tilsyn.
Straframmen er op til 1 million USD for førstegangsovertredelser og op til 3 millioner USD for gentagne overtrædelser. New Yorks Attorney General kan anlægge civile sager mod udviklere, der ikke overholder loven.
For virksomheder i Danmark og Norden, der bruger frontier-modeller fra amerikanske leverandører, er det værd at følge, hvordan RAISE Act påvirker de sikkerhedsprotokoller og den dokumentation, som leverandørerne stiller til rådighed. Det kan blive en faktor i fremtidige leverandørvalg og risikovurderinger.
RAISE Act regulerer ikke alle former for AI. Loven fokuserer udelukkende på frontier-modeller og de allerstørste udviklere. Virksomheder, der bygger mindre modeller, fine-tuner eksisterende modeller eller bruger AI-værktøjer via API, er ikke direkte omfattet. Det er vigtigt at skelne mellem RAISE Act og bredere regulering som EU AI Act, der har et langt bredere anvendelsesområde og rammer alle led i AI-værdikæden.
RAISE Act er heller ikke en lov, der forbyder bestemte AI-anvendelser. Den stiller krav om transparens og sikkerhedsprotokoller, men dikterer ikke, hvad frontier-modeller må eller ikke må bruges til. Det er en procesorienteret lov, ikke en indholdsorienteret lov.
Endelig er RAISE Act ikke en føderal amerikansk lov. Den gælder kun i delstaten New York, og der pågår en aktiv debat om føderal præemption, altså om en eventuel føderal AI-lov vil tilsidesætte statslige love som RAISE Act. Indtil videre er den dog gældende ret i New York og et vigtigt referencepunkt for AI-regulering i USA.
EU AI Act: Den europæiske AI-forordning, der regulerer AI-systemer baseret på risikoniveau. Bredere i omfang end RAISE Act, men med fælles principper om transparens og tilsyn.
AI Governance: Rammerne for styring, politikker og processer, der sikrer ansvarlig brug af AI i en organisation. RAISE Act gør governance-krav lovpligtige for frontier-udviklere.
AI Compliance: Efterlevelse af lovgivning og regulering for AI-systemer. RAISE Act tilføjer et nyt lag af compliance-krav for de største AI-udviklere.
Ansvarlig AI (Responsible AI): Den bredere disciplin, der handler om at udvikle og anvende AI på en etisk og ansvarlig måde. RAISE Act kodificerer dele af ansvarlig AI i lovgivning.
Frontier Model (Frontiermodel): De mest avancerede AI-modeller målt på beregningskraft og kapabilitet. RAISE Act definerer præcise tærskler for, hvad der udgør en frontier-model.
AI Risk Management: Systematisk identificering og håndtering af risici ved AI-systemer. RAISE Act kræver dokumenterede risikostyringsprocesser af frontier-udviklere.
Conformity Assessment: Formel vurdering af, om et AI-system overholder gældende krav. RAISE Act kræver årlige uafhængige revisioner, der minder om conformity assessments.
Novo Nordisk har indgået et strategisk partnerskab med OpenAI, der skal integrere AI på tværs af...
Anthropic lancerede i går Claude Design, et nyt AI-designværktøj, der lader dig bygge prototyper,...
Anthropic har netop lanceret Claude Opus 4.7, den nyeste version af deres mest avancerede AI-model....