Mistral AI lancerede i dag det nye orkestreringslag Workflows, som skal gøre AI-agenter produktionsklare i virksomheder. Lanceringen rykker den franske AI-virksomhed fra modelleverandør til infrastrukturudbyder for hele AI-stakken.
Workflows er bygget oven på open source-motoren Temporal, den samme teknologi, der allerede driver orkestrering hos Netflix, Stripe og Salesforce. Systemet lover at løse et af branchens største problemer lige nu, nemlig at AI-prototyper crasher, når de møder rigtig drift. Vi har gennemgået, hvad Workflows kan, hvorfor det er strategisk vigtigt, og hvad det betyder for danske virksomheder.
Workflows er et orkestreringslag bygget specifikt til virksomheder, og det er netop nu lanceret i offentlig preview som en del af Mistral Studio. Det giver udviklere et Python-SDK til at bygge, eksekvere og overvåge flertrins AI-processer i kode. Kort fortalt er det en motor, der binder store sprogmodeller (LLM'er), deterministiske forretningsregler og menneskelige godkendelser sammen i robuste pipelines.
Modellen er hybrid og adskiller control plane fra data plane. Mistral hoster selve orkestreringen (control plane), mens dine workers, som er det, der eksekverer din kode, kører i dit eget Kubernetes-miljø eller på dine egne servere (data plane). Dataejerskab og forretningslogik forbliver inden for jeres perimeter, hvilket er afgørende for compliance i finans, sundhed og offentlig sektor.
Mistral fremhæver kunder som ASML, ABANCA, CMA-CGM, France Travail, La Banque Postale og Moeve, der allerede kører kritiske processer på platformen. Ifølge Mistral selv eksekveres millioner af workflows dagligt, hvilket placerer den nye platform et stykke foran et almindeligt MVP-niveau.
Industrien står over for et alvorligt produktionsproblem. Ifølge VentureBeat forventes over 40 % af alle agentic AI-projekter at blive skrottet inden 2027. Årsagerne er høje omkostninger, manglende stabilitet og uklar forretningsværdi.
Markedet for agentic AI vurderes til ca. 10,9 mia. USD i 2026, og vækstkurven peger mod 199 mia. USD i 2034. Den vækst forudsætter dog, at projekterne rent faktisk når i produktion, og det er præcis flaskehalsen, Mistral sigter efter.
Mistral beskriver selv de typiske fejlmønstre som genkendelige på tværs af brancher. Pipelines kører fint i en notebook, men fejler stille i produktion uden spor. Lange processer overlever ikke et netværks-timeout. Multi-trins operationer mangler en mekanisme til at pause og genoptage ved menneskelig godkendelse. Og der er sjældent en måde at verificere, om systemet stadig gør det rigtige efter deployment.
Det er klassiske udfordringer fra distribueret systemudvikling, men koblet med AI-agenter bliver de pludselig kritiske, fordi den probabilistiske natur i sprogmodeller gør fejl både hyppigere og sværere at reproducere.
Workflows er bygget oven på Temporal, en open source-motor til durable execution. Mistral har taget basen og tilføjet AI-specifikke lag, herunder streaming af LLM-tokens, payload-håndtering, multi-tenancy og observability, som ikke kommer ud af kassen i Temporal selv.
Den centrale distinktion i Mistrals model er forskellen mellem workflows og activities. Et workflow er orkestreringshjernen, der koordinerer skridt, holder state og venter på events, og det skal være deterministisk, så platformen kan replays det fra historikken, hvis en worker dør. En activity er det rigtige arbejde, fx et LLM-kald, en HTTP-request eller en databaseskrivning, og activities bliver automatisk retried med konfigurerbar backoff, når de fejler.
Den arkitektur betyder, at hvis en worker dør, et netværk falder ud, eller et API timer ud, så starter processen der, hvor den slap, ikke fra nul. Udviklerne behøver ikke selv skrive recovery-kode, og de kan fokusere på forretningslogikken i stedet for plumbing.
Durable execution. Hvert eneste skridt registreres i en event-historik. Crashes mister ikke arbejde, og en ny worker resumerer fra sidste fuldførte trin. Det er det samme princip, som Stripe og Netflix bruger til at holde deres egne kritiske systemer i live.
Observability. Hver beslutning AI-agenten tager, bliver registreret i Mistral Studio med fuld sporbarhed. Fejlsøgning bliver et spørgsmål om at læse loggen og finde præcis, hvor kæden hoppede af, ikke at gætte, hvad der gik galt i en black box.
Human-in-the-loop med én linje kode. En workflow kan pauses i sekunder, timer eller dage, mens en medarbejder skal godkende eksempelvis en refusion eller en frigivelse af en forsendelse. Når godkendelsen kommer ind, fortsætter processen automatisk derfra. Human-in-the-loop er ikke længere en eftertanke, men et førsteklasses-element i orkestreringen.
Det letteste eksempel er et udlægs-godkendelsesflow. Forestil dig en proces, hvor en kvittering scannes, en LLM trækker beløbet ud, og udlæg over 5.000 kr. skal godkendes manuelt af en leder, før de bogføres. Hele flowet skal tåle, at lederen først kigger på det dagen efter, og at en worker undervejs bliver genstartet uden at miste sin tilstand.
I Mistral Workflows ser det ud sådan her med det officielle Python-SDK:
import mistralai.workflows as workflows
from mistralai.workflows import workflow
from datetime import timedelta
@workflows.activity()
async def extract_amount(receipt_url: str) -> float:
# LLM-kald, der trækker beløbet ud af kvitteringen
...
@workflows.activity()
async def post_to_erp(result: dict) -> None:
# Skriv resultatet til e-conomic eller andet ERP
...
@workflow.define(name="expense_approval",
execution_timeout=timedelta(days=7))
class ExpenseApproval:
def __init__(self):
self.approved: bool | None = None
@workflow.signal(name="approve")
async def approve(self, decision: bool) -> None:
self.approved = decision
@workflow.entrypoint
async def run(self, receipt_url: str) -> dict:
amount = await extract_amount(receipt_url)
if amount < 5000:
result = {"status": "auto_approved", "amount": amount}
await post_to_erp(result)
return result
# Beløb over 5.000 kr kræver manuel godkendelse.
# Workflow venter, og bruger ingen ressourcer imens.
await workflow.wait_condition(
lambda: self.approved is not None,
timeout=timedelta(days=3)
)
result = {
"status": "approved" if self.approved else "rejected",
"amount": amount
}
await post_to_erp(result)
return result
Bemærk hvordan workflow.wait_condition pauser hele processen, indtil signalet approve er modtaget, eller indtil tre dage er gået. Mens den venter, bruger workflowet ingen ressourcer. Hvis serveren går ned, eller workeren bliver genstartet, fortsætter processen præcis der, hvor den slap. Du behøver ikke skrive en eneste linje recovery-kode.
Activities (extract_amount, post_to_erp) bliver automatisk retried med exponential backoff, hvis et eksternt API svarer langsomt eller fejler. Selve workflowet (run-metoden) skal være deterministisk, og det er dér Mistrals SDK trækker en sandbox ned over koden, så ikke-deterministiske kald som datetime.now() eller random.random() bliver fanget på udviklingstidspunktet frem for i produktion.
Workflows er i offentlig preview, og du tilgår det via Mistral Studio. Du installerer SDK'et med pip install mistralai, registrerer dine workflows hos den centrale orkestrator, der hostes af Mistral, og deployerer dine workers i dit eget miljø, typisk et Kubernetes-cluster eller en VM. Mistral leverer en separat Helm chart til workers.
I praksis betyder det, at din kode (workflows og activities) bor i dit eget repository, mens platformen håndterer state, retries, scheduling og observability. Mistral Studio giver dig et UI, hvor du kan trigge eksekveringer, læse fuld event-historik og inspicere hver enkelt beslutning. Du kan også publicere workflows som assistenter i Le Chat, så ikke-tekniske medarbejdere kan starte dem fra en chat-grænseflade.
Pricing er endnu ikke offentliggjort separat for Workflows. Det indgår som del af Mistral Studio-pakken, og enterprise-kunder kan få deployet hele AI Studio-miljøet i deres egen private cloud eller on-premises, hvis det er et krav. Du finder den fulde dokumentation i Mistrals Workflows-docs.
For os, der bygger AI-agenter ind i CRM-systemer og forretningsprocesser, er Workflows en relevant udvikling. Den løser præcis det produktions-stabilitetsproblem, som vi ser igen og igen, når kunder forsøger at komme videre fra proof of concept til reel drift.
Strategisk er lanceringen også et tydeligt signal om Mistrals retning. Virksomheden går fra primært at være modelleverandør til at være infrastrukturudbyder for hele AI-arbejdsbyrden. Dermed konkurrerer Mistral nu direkte med Amazon Bedrock AgentCore, Microsoft Copilot Studio og Google Vertex AI på orkestreringslaget.
For compliance-tunge brancher som finans, sundhed og offentlig sektor kan kombinationen af åbne modeller, hybrid deployment og europæisk hosting blive et stærkt argument. Især når AI-suverænitet og dataejerskab er på dagsordenen i samtaler om EU AI Act og NIS2.
Workflows er stadig i offentlig preview, så det er for tidligt at konkludere noget endeligt om reel produktionsmodenhed på tværs af use cases. Men kombinationen af Temporal under motorhjelmen, et Python-SDK, der gør det enkelt at definere logik, og en hybrid deployment-model, der respekterer dataejerskab, gør den svær at ignorere som en seriøs option for danske enterprise-AI-projekter.
Du kan læse Mistrals egen udmelding her.