Snilld

Gemma 4 udfordrer AI-governance på medarbejdernes enheder

Google Gemma 4 er designet til lokal hardware og edge-enheder. Det gør sikkerhedsmodeller, der bygger på cloud-gateways, CASB og netværksovervågning, mindre dækkende og flytter governance tættere på selve enheden.

14. april 2026 Peter Munkholm

Google Gemma 4 gør noget ret jordnært ved enterprise-sikkerhed: den flytter AI-arbejdet ud på selve enheden. Hovedkilden beskriver modellen som målrettet lokal hardware og edge-enheder, og det rammer lige ned i en sikkerhedslogik, mange virksomheder stadig bygger på, nemlig at AI kan styres via cloud-perimeteren.

Gemma 4 kan ifølge kilden køre direkte på edge-enheder, lave multi-step planning og understøtte autonome workflows lokalt. Så governance-problemet er ikke kun, hvad medarbejdere sender ud til eksterne AI-tjenester. Det er også, hvad der kan ske på en laptop, uden at det passerer de sædvanlige kontrolpunkter.

Perimeteren er ikke nok længere

Mange virksomheders AI-sikkerhed er bygget op omkring cloud-gateways, CASB-værktøjer og overvågning af trafik til eksterne sprogmodeller. Det giver mening, så længe brugen går gennem centrale systemer. Den logik bliver svagere, når open-weight modeller kan hentes ned og køres lokalt.

Banner

Kilden bruger et meget konkret billede: en ingeniør kan downloade en Apache 2.0-licenseret model som Gemma 4 og gøre sin laptop til en lokal compute-node. I det øjeblik ligger en del af AI-arbejdet pludselig uden for de steder, sikkerhedsteamet normalt holder øje med.

Google lancerede også Gemma 4 sammen med Google AI Edge Gallery og biblioteket LiteRT-LM. Ifølge kilden skal det gøre lokal eksekvering hurtigere og levere de mere strukturerede outputs, som agentisk adfærd kræver.

To it-sikkerhedsfolk diskuterer overvågning og blindvinkler ved lokal AI-kørsel.
En medarbejder arbejder ved en bærbar computer, hvor AI-opgaver kan køre lokalt på enheden.

Det usynlige problem

Det mest ubehagelige ved on-device inference er næsten, hvor stille det kan foregå. Hvis aktiviteten ikke skaber netværkstrafik, er der mindre for de eksisterende overvågningsværktøjer at se. Hovedkilden kalder det en markant blindvinkel for sikkerhedsdrift.

Kilden beskriver også, at en lokal autonom agent kan iterere gennem tusindvis af logiske trin og eksekvere kode på enheden ved høj hastighed. Så problemet er ikke bare en enkelt prompt, men længere handlingskæder, der kan køre lokalt og hurtigt.

Banner

Når audit halter bagefter

Hovedkilden peger på et pres fra europæiske datasuverænitetsregler og globale finansielle regler om fuld auditability ved automatiserede beslutninger. Hvis inferens sker lokalt og uden central logning, bliver det sværere at dokumentere bagefter, hvad systemet gjorde, og hvorfor.

Medarbejdere fra it og compliance drøfter governance og audit for AI på medarbejdernes enheder.

Det er ikke det samme som, at lokal kørsel ikke kan styres. Men det gør styring og dokumentation mere besværlig, når AI-arbejdet ikke længere kun foregår i centrale cloud-miljøer.

Styringen rykker ud til brugeren

Her er vi nok enige med briefets læsning af situationen: shadow AI, datalæk og ukontrolleret modelbrug flytter med ud på slutbrugerens enheder. Så det gamle svar, hvor man mest kontrollerer adgang til eksterne tjenester, rækker ikke ret langt.

Den mere brugbare retning er en zero-trust, AI-first governance-model, hvor politik, identitet og datakontrol følger bruger, model og kontekst på tværs af cloud og edge. Hovedpointen står egentlig ret nøgent tilbage. Når modeller som Gemma 4 er bygget til lokal hardware, flytter governance-arbejdet tættere på medarbejdernes egne enheder.

Kilder

    Gør brugeroplevelsen bedre.
    Hvilket firma arbejder du for?