De fleste har prøvet at babysitte en AI-session i terminalen, mens laptopen koger. Mistrals nye remote agents i Vibe gør op med det: kodende sessions kan flyttes til skyen og fortsætte, når du lukker låget. Samtidig lander Mistral Medium 3.5 i public preview, en 128B dense model, som bliver standard i både Vibe og Le Chat. Mistral fremhæver en 77,6 procent SWE-Bench Verified-score. Det er de korte nyheder — den praktiske effekt er bredere.
Hvad ændrer sig i hverdagen for en udvikler? Lange refactors, testkørsler og fejlsøgning kan fortsætte uden, at din maskine står tændt. Flere agent-opgaver kan spredes i parallelle cloud-sessions. Og kontrolpunkter flytter sig fra “følg hvert tastetryk” til “review pull request”. Det flytter ansvar, tempo og governance i teams.
Vibe kort fortalt
<p
Ifølge den primære rapportering er Vibe en coding agent, du tilgår via en CLI. Den kan skrive kode, refaktorere moduler, generere tests og undersøge CI-fejl. Indtil nu kørte Vibe lokalt, bundet til din laptop og terminal — praktisk til småting, men en flaskehals for længere forløb.
Vi har siddet med Vibe-lignende opsætninger i projekter, hvor en udvikler pendlede mellem terminal, Slack og GitHub. Man glemmer et flag, en virtuelenv, genkører. En kollega spørger, om containeren er oppe. Remote agents adresserer netop det: agenten kører, selv når du går.

Remote agents forklaret
<p
Sessions kan “teleporteres” fra den lokale CLI til skyen uden at miste historik, task state eller approvals. Kilden beskriver, at udviklere kan starte cloud-agenter fra Vibe CLI eller fra Le Chat. Under kørsel kan man se fil-diffs, værktøjskald, fremdrift og spørgsmål. Når arbejdet er færdigt, kan agenten åbne en pull request på GitHub og pinge til review. Funktionelt flytter feedback sig fra mikro-input til makro-review.
Hver session kører i en isoleret sandbox, også når der laves brede ændringer eller installeres afhængigheder. Det tekniske underlag peger på Mistrals orkestrering via Workflows i Mistral Studio, som også binder Vibe ind i Le Chat. Det nævnes eksplicit, at integrationerne rækker til GitHub, Linear og Jira for issues, Sentry for incidents og Slack eller Teams til rapportering.
Medium 3.5 som standard
<p
Mistral Medium 3.5 beskrives som en 128B dense model med 256k kontekstvindue og som standardmodellen i både Vibe og Le Chat. Den store kontekst hjælper ved gennemgang af hele moduler eller længere arkitekturtråde. Kilden fremhæver 77,6 procent på SWE-Bench Verified, og modellen beskrives som stærk til instruktion, ræsonnement og kode. Resultatet i praksis: færre afbrud og mere stabil udførelse på længere kæder af opgaver.
Kilden omtaler modellen som en “first flagship merged model” og multimodal, med en vision-encoder trænet fra bunden. I kodearbejde er det relevant, fordi dokumentation, skærmbilleder og arkitekturdiagrammer ofte bærer halvdelen af sandheden i et issue. En model, der kan holde lange tekstkontekster og forstå billeder meningsfuldt, gør agenten mere selvhjulpen og fjerner friktion.
Tre ændringer i daglige workflows
<p
Parallelisering: Når agenter kan spinde op i skyen, kan delopgaver køre sideløbende, for eksempel testgenerering pr. service samtidig med en refactor i et andet repo. Det aflaster seniorer, der ellers orkestrerer manuelt. Mindre babysitting: Hos en kunde frigjorde fraværet af terminalvagt cirka halvanden time pr. udvikler pr. dag til review og design — ren fjernet ventetid.
Nye review-gates: Når PR’er åbnes automatisk, skal godkendelser og testkrav være skarpt defineret. Agenten bør aldrig kunne merge i main uden menneskelig godkendelse. Fejlmønstre i kodegenerering er ikke væk; de er bare flyttet til et andet sted i kæden. En dårlig merge-policy tager 10 minutter at sætte — og uger at rydde op efter.

Drift og sikkerhed
<p
Sandboxes er gode, men de kan også installere bredt. Det kalder på dependency-politikker, SBOM og isolerede netværk. Kilden bekræfter isolation og muligheden for brede installs, men beskriver ikke den præcise isolationsteknik. Er det VM’er, containere eller proces-sandboxing? Det står åbent og bør afklares før produktion.
Vi anbefaler tre lavpraktiske sikkerhedsgreb som start: rollebaseret adgang for agenter på repo- og miljøniveau, SIEM-integration til logning af værktøjskald og filændringer, samt begrænsede egress-tilladelser fra sandboxes. Anledningen er konkret: I en intern test hentede en ellers fornuftig agent et dev-tool fra en tvivlsom mirror. Intet gik galt — men det var en nyttig påmindelse.
Integration og orkestrering
<p
Vibe hægter sig på GitHub til kode og PR’er, Linear eller Jira til issues, Sentry til incidents og Slack eller Teams til updates. Det giver en lige vej ind i CI\/CD, men kræver også klare beslutninger om, hvor agenter må gøre hvad: må de oprette branches, ændre labels i Jira, og hvordan samles kommentarer fra Slack og PR-threads i et auditspor?
Mistral binder trådene via Workflows i Mistral Studio, som bruges til at bringe Vibe ind i Le Chat. For teams betyder det en orkestreringskerne, I kan spejle ind i egne pipelines. Hvis I allerede har scripts til release-trin, kan agenten afvikle dem — men den bør ikke være den eneste port. Sæt som minimum et review-gate og automatiske tests før merge samt en notifikationsregel, der kræver menneskelig kvittering ved bestemte ændringstyper, fx auth, pengekritiske stier eller migrations.
Kost og governance
<p
Pris er uafklaret: Kilden oplyser ikke prissætning for remote agents, heller ikke SLA eller retention for session-historik og artefakter. Indtil officielle vilkår findes, bliver cost-allocation et lokalt designspørgsmål. Vores erfaring: start med simple kvoter per projekt og per agenttype, så budgetter ikke løber løbsk i første måned.
Rettigheder skal være stramme fra begyndelsen. Det er fristende at give agenten write på alt. Start med read og pull request, få mønstrene på plads, og åbn først for mere, når I har data på fejlrate, rollback og MTTR. Den tilbageholdenhed betaler sig altid i opstartsfasen.

Snillds vurdering og en kort pilotplan
<p
Kør en 2–6 ugers pilot i et afgrænset repo. Vælg opgaver som testgenerering eller CI-fejlfinding med klare succeskriterier. Sæt RBAC for agenter, slå fuld logning til for værktøjskald, fil-diffs og approvals, og koble logs til jeres SIEM. Begræns netværksadgang, kør SBOM-scanning på alle nye installs, og brug en PR-skabelon, der dokumenterer, hvilke værktøjer agenten brugte.
Metrics for de første 90 dage: gennemløbstid per issue med og uden agent, andel af agent-genererede PR’er der klarer første review, fejlrate efter merge, antal rollbacks, samt tid brugt på babysitting kontra design og review. Det er de tal, der afgør, om gevinsten er reel.
Huller i dækningen og de rigtige spørgsmål
<p
Kilden nævner ikke pris, SLA, datalagring eller audit-rammer. Der står heller ikke, om sandboxes er VM’er eller containere, eller om der findes eksterne sikkerhedsattester. 77,6 procent på SWE-Bench Verified er tydeligt, men uden fuld metodegennemgang. Spørg til versionsdetaljer, seed og patch-strategi, hvis I vil sammenligne retvisende. Det er standardspørgsmål til enhver leverandør.
Vi savner uafhængige driftserfaringer fra større teams. Kilden beskriver funktionaliteten, ikke udbredelsen. Råd: efterspørg referencer eller kør en styret pilot, før adgang udvides til main-branches eller følsomme repos.
To korte cases fra virkeligheden
<p
En nordisk SaaS-aktør, vi har arbejdet med, kæmpede med testgæld. En semi-automatisk testgeneration skar omkring 30 procent af fejlfindingstiden over seks uger — ikke fordi modellen var genial hver gang, men fordi den fyldte hullerne og kørte, mens folk sov. Remote agents havde her fjernet den sidste snubletråd: at nogen skulle holde terminalen åben.
Et internt proof-of-concept hos os handlede om parallelle builds på tværs af tre services. Lokalt var flaskehalsen CPU og tålmodighed. Med cloud-sessions forsvandt flaskehalsen, men risikoen dukkede op et nyt sted: en dependency, der gled ind via en postinstall-hook. Derfor vores vedholdende råd om SBOM, egress-kontrol og review-gates.
Konkurrentbilledet kort
<p
Markedet for agentiske udviklingsværktøjer er tæt, og flere platforme forsøger at kombinere model, orkestrering og integrationslag. Det bemærkelsesværdige her er Mistrals sammenbinding: Vibe i CLI, Le Chat som UI og Workflows i Mistral Studio som rygrad. Når standardmodellen er den samme på tværs, mindskes friktionen for teams, der vil rykke fra ad hoc-forsøg til en mere systematisk pipeline.
Vi forventer, at andre aktører vil læne sig op ad samme opskrift: orkestration over modellen. For slutbrugeren betyder det mindre tid på værktøjssumpen og mere på procesdesign. Men de hårde spørgsmål om pris, SLA og compliance skal besvares — ellers ender det i en dyr pilot.
Hvad det betyder i praksis
<p
For udviklere: færre afbrud og flere lange opgaver, der kan køre færdige uden at binde din maskine. For tech leads: nye review- og godkendelsespunkter og behov for klare politikker for automatiske PR’er. For platform- og sikkerhedsteams: nye logstrømme at opsamle, nye kvoter at sætte og en tydeligere grænse mellem staging-sandboxes og produktion.
Det mest jordnære råd: start småt, mål alt, og giv ikke agenter merge-rettigheder i main i begyndelsen. Demoer imponerer, men forskellen mærkes først, når den første PR ændrer noget uventet i en migrationsmappe. Den tvivl er sund.