Et kinesisk forskerteam har bygget et system der designer nye AI-arkitekturer, renser træningsdata og opfinder nye reinforcement learning-algoritmer uden menneskelig mellemkomst. Det hedder ASI-Evolve, og pressen har allerede døbt det "selvforbedrende AI".
Men hvad er det egentlig? Vi gennemgår hvad ASI-Evolve reelt er, hvilken tese forskerne bygger på, hvordan systemet fungerer, og hvorfor holdet bag bevidst bremser den mest dramatiske fortælling. Det er et nyt forskningsværktøj, ikke begyndelsen på Skynet.
ASI-Evolve er et open source-framework publiceret af GAIR-NLP-gruppen på Shanghai Jiao Tong University og Shanghai Innovation Institute (SII). Det er udgivet som forskningspapir på arXiv med tilhørende kode på GitHub. Det er ikke en ny AI-model. Det er et orkestreringslag der bruger eksisterende LLM'er som motor og sætter dem ind i en struktureret forskningsproces.
Selve idéen tilhører en voksende genre af såkaldte agentic AI-systemer der kan træffe beslutninger og eksekvere opgaver i flere trin. Der hvor ASI-Evolve skiller sig ud, er ved at sigte specifikt mod AI-forskning som domæne. Systemet læser videnskabelig litteratur, formulerer hypoteser, kører eksperimenter og destillerer indsigterne tilbage i sin egen hukommelse inden næste runde.
Frameworket består af tre agent-roller (Researcher, Engineer og Analyzer) plus to vedvarende komponenter: en cognition-base med struktureret forskningsviden og en eksperiment-database. Det hele kører i et loop der ikke stopper før det rammer et stopkriterium eller et ressourcebudget sat af mennesker.
Dokumentet stiller ét centralt spørgsmål: kan AI accelerere udviklingen af AI selv? Tidligere agentic-systemer har klaret velafgrænsede opgaver med hurtige feedback-loop, som at løse matematikopgaver eller skrive programmeringsfunktioner. Den lange, dyre og dårligt superviserede forskningsproces der driver reel AI-udvikling, har indtil nu været uden for rækkevidde.
ASI-Evolves tese er at denne type forskningsloop kan lukkes agentisk. Ikke ved at erstatte forskerne, men ved at skalere den mest tidskrævende del af deres arbejde: at generere og afprøve kandidatløsninger i et søgerum der er for stort for et menneskeligt hold at udtømme manuelt.
Hvis tesen holder, flyttes flaskehalsen i AI-forskning fra gennemførelse til definition. Mennesker definerer problemet, begrænsningerne og evalueringsmetrikken. Systemet står for iterationerne. Det er et skifte fra at løse problemer til at indramme dem, og det er en pointe forskerne selv fremhæver i deres materiale.
Det er også derfor frameworket ikke er låst til AI-forskning som emne. Den samme loop-struktur kan i princippet bruges på ethvert problem hvor man har et veldefineret input, en evaluator-funktion og et domæneafgrænset søgerum. Forfatterne nævner selv finans, biomedicin, klimavidenskab og spiludvikling som eksempler.
Hver runde gennemløber fire faste trin: learn, design, experiment og analyze. Systemet starter med at hente relevant viden fra cognition-basen (kuraterede forskningspapirer og domæneindsigter) og fra eksperiment-databasen (resultater fra tidligere runder). Her afgøres hvad der er værd at prøve næste gang.
Derefter designer Engineer-agenten et nyt kandidatprogram, for eksempel en ny neural arkitektur eller en ny data-pipeline. Kandidaten evalueres via en domænespecifik evaluator-funktion som forskeren har leveret på forhånd. Resultaterne sendes videre til Analyzer-agenten.
Analyzeren er det afgørende element. I stedet for bare at logge et tal-resultat oversætter den eksperimentelt output (træningskurver, benchmark-scorer og fejlmønstre) til struktureret læring der skrives tilbage til cognition-basen. Næste runde starter derfor med mere viden end den forrige. Det er her navnet "evolve" kommer fra: ikke kandidaterne der evolverer, men systemets egen forståelse af søgerummet.
ASI-Evolve er valideret på tre hårde AI-problemer med målbare benchmarks. I neural arkitekturdesign genererede systemet 1.350 kandidater over 1.773 iterationer og fandt 105 arkitekturer der slår den menneskeskabte baseline DeltaNet. Den bedste slog DeltaNet med 0,97 point, cirka tre gange gevinsten fra de seneste manuelle SOTA-forbedringer.
I pretraining data-curation forbedrede den evolverede pipeline gennemsnitlige benchmark-scorer med 3,96 point, og på MMLU (en bred videnstest) var gevinsten over 18 point. I reinforcement learning-algoritmedesign overgik systemets opfundne algoritmer GRPO med op til 12,5 point på AMC32 og 11,67 point på AIME24.
Det er ikke småjusteringer. Det er reelle frontier-niveau-resultater på benchmarks hvor selv små fremskridt normalt tager måneder af manuelt arbejde. Forfatterne viser også tidlige tegn på at paradigmet kan overføres uden for AI-stacken, med indledende eksperimenter i matematik og biomedicin der peger på noget tilsvarende.
Overskrifterne har kaldt ASI-Evolve "selvforbedrende AI der evolverer uden tilladelse" og antydet at det er et skridt mod ASI (Artificial Super Intelligence). Forskeren Xu Weixian fra teamet afviser den fortælling direkte i et interview refereret af New Atlas. De har bevidst undgået det han kalder "blind evolution".
Hans pointe er at systemets formål, de oprindelige hypoteser og kerneideerne altid kommer fra mennesker. Værdien ligger i at bruge AI'ens eksplorationsevne til at itere hurtigt i en retning guided af mennesker. Han beskriver det som et "ekstremt effektivt kollaborativt system" snarere end en kold erstatning for forskere.
Det er den realistiske ramme. ASI-Evolve er et avanceret søgeværktøj med hukommelse. Det kan være enormt produktivt i hænderne på et forskerteam der ved hvad de leder efter, og det kan skalere dele af AI-udviklingen som tidligere har været flaskehals. For danske virksomheder der følger AI-udviklingen er det især interessant som tegn på hvor feltet bevæger sig hen: mod agentic-systemer der håndterer lange forskningsloop, ikke kun chat.