Snilld

Autonom AI flytter risikoen ned i datalaget

En ny artikel i AI News peger på et skifte i AI-sikkerhed: Når systemer ikke bare svarer, men selv henter data, træffer beslutninger og sætter handlinger i gang, bliver modelkontrol alene for tyndt. Det egentlige problem ligger ofte længere nede, i virksomhedens rodede datalag.

2. april 2026 Peter Munkholm

Meget af snakken om AI-sikkerhed har indtil nu handlet om modeller. Hvordan de er trænet. Hvordan de overvåges. Hvordan man holder dem i kort snor. Men ifølge en ny artikel i AI News er det fokus ved at flytte sig, fordi AI-systemer i stigende grad bliver autonome og arbejder med begrænset menneskelig supervision. Når systemet selv henter information, vurderer den og sætter en handling i gang i et workflow, er det ikke længere nok at stirre sig blind på modellen alene.

Pointen er enkel, men vigtig. Hvis de data, der fodrer systemet, er fragmenterede, gamle eller uden ordentligt tilsyn, bliver adfærden mere uforudsigelig. AI News skriver direkte, at data governance er ved at blive en kerne i kontrollen af autonome systemer. Det lyder tørt. Det er det også lidt. Men i praksis er det en driftsnyhed, ikke bare en arkitekturøvelse.

Problemet starter sjældent i modellen

Autonome AI-systemer er ikke bare chatvinduer med pæne formuleringer. Ifølge AI News udfører de opgaver med begrænset supervision ved at hente information, træffe beslutninger ud fra den og udløse handlinger i forretnings-workflows. Det kan være i kundeservice, interne godkendelser, sagsbehandling eller andre processer, hvor tempo og ensartethed betyder noget. Og hvor en fejl ikke bare er en skæv formulering, men noget der faktisk sætter sig i drift, sagstal eller compliance.

Mange ledere rammer stadig ved siden af her. De tror, at kontrol først og fremmest handler om valg af model, leverandør eller prompt-regler. Men hvis CRM siger ét, ERP noget andet, SharePoint gemmer en tredje version, og et gammelt system stadig bliver brugt som reference, så får selv en ellers velfungerende model et skævt grundlag. Den type rod fandtes længe før agentisk AI blev moderne, og det bliver ikke mindre rod af at lægge mere automation ovenpå.

Tekniker i driftsmiljø arbejder med den infrastruktur og de datalag, som AI-systemer bygger på

Når virksomheden har fem versioner af sandheden

AI News peger også på noget, de fleste større organisationer vil kunne genkende uden at være særligt stolte af det. Data ligger ofte spredt på cloud-platforme, interne databaser og tredjepartstjenester. Resultatet er datasiloer og forskellige versioner af de samme oplysninger rundt i virksomheden. Ikke altid dramatisk. Bare nok til, at to systemer kan svare forskelligt på det samme spørgsmål mandag morgen.

Banner

Det lyder banalt, men konsekvensen ændrer karakter, når AI-systemet ikke bare læser, men handler. Et menneske kan ofte mærke, at noget skurrer. En erfaren medarbejder stopper op og tjekker en ekstra gang. Et autonomt system gør ikke nødvendigvis det, medmindre det er bygget til det, og medmindre datagrundlaget er styret. Ellers får man ikke bare lavere præcision. Man får modsatrettede beslutninger, forkerte svar eller handlinger baseret på den forkerte kilde.

Compliance bliver hurtigt det kedelige ord, der pludselig betyder alt

AI News fremhæver, at uforudsigelige resultater i regulerede brancher kan skabe compliance-risici. Det er værd at tage alvorligt tidligt i historien, ikke som en note til sidst. For jo mere autonomt et system arbejder, jo større bliver behovet for at kunne dokumentere, hvilke data det så, hvilke regler der gjaldt, og hvorfor en beslutning blev taget. Ellers bliver intern kontrol et gætteri med slips på.

Her er der også støtte fra mere juridisk orienterede kilder, om end man skal læse dem med det forbehold, de fortjener. Advokathuset Seyfarth Shaw skriver i en analyse af AI-drevne robotsystemer, at mere autonome løsninger skærper krav omkring data, compliance og governance. Det er ikke uafhængig forskning, og det skal man ikke lade som om det er. Men som temperaturmåling på, hvad jurister og compliance-folk kigger på, er retningen tydelig nok.

Markedets svar er et styret datalag

AI News bruger Denodo som eksempel på, hvordan markedet forsøger at løse problemet. Ifølge artiklen arbejder Denodo med adgang til og styring af data på tværs af forskellige kilder. Pointen er ikke, at alle data skal flyttes til ét stort centralt lager. Tværtimod beskriver AI News, at platformen giver adgang til data uden at flytte dem til ét repository, men i stedet skaber et samlet view på tværs af kilder til applikationer, herunder AI-systemer.

Det er den del, mange overser. Ikke produktnavnet, men princippet: at AI-systemer helst bør se virksomhedens data gennem et kontrolleret vindue, ikke gennem ti halve integrationer og tre kreative workarounds, som ingen rigtig vil kendes ved. Mange AI-projekter bliver stadig planlagt i omvendt rækkefølge: først model, så demo, så begejstring, og til sidst opdager man, at governance skulle have været med fra starten.

Medarbejdere fra it, forretning og compliance diskuterer governance, adgangsregler og sporbarhed

Politikker skal ikke bo hver for sig

Ifølge AI News gør Denodos tilgang det muligt at anvende ensartede politikker på tværs af datakilder. Adgangsregler, compliance-krav og brugsgrænser kan defineres ét sted. Det er ikke magi, og det løser ikke dårlige kildedata i sig selv. Men det flytter styringen væk fra et kludetæppe, hvor hver kilde har sit eget lille regime, som ingen udenfor teamet forstår helt.

Det her er måske lidt niche, men det er tit præcis dér projekter knækker. Ikke i visionen, men i hverdagen. Hvis et AI-system må se personfølsomme data i én kilde, men ikke i en anden, hvis samme kunde har forskellig status i to systemer, eller hvis use limits lever hvert sit liv, så bliver adfærden uens. Og når flere AI-systemer begynder at arbejde på tværs, bliver uensartetheden hurtigt en lille fabrik for mærkelige resultater.

Banner

Audit trail er ikke kun til revision

AI News beskriver også, at platformen logger, hvordan data bliver forespurgt, og hvad der bliver returneret, så der opstår et audit trail. Det kan hjælpe organisationer med at forstå, hvordan et AI-system nåede frem til en beslutning, og understøtte compliance. Det er vigtigt for revision, ja. Men det er også vigtigt for helt almindelig fejlsøgning, når noget ser skævt ud tirsdag klokken 08.17 og alle peger i hver sin retning.

Her er der en interessant parallel i enterprise-debatten mere bredt. Dynatrace skriver i en virksomhedsblog om agentiske systemer, at overvågning, debugging og audit trails bliver centrale, når autonome agenter skal ind i større automatiseringer. Det er en leverandørblog, så den er ikke neutral dokumentation. Men den understøtter, at audit og sporbarhed ikke bare er et nichekrav fra revisorer. Det er blevet en del af den praktiske driftssamtale.

En samlet styring gør ikke data gode af sig selv

Der er dog en vigtig nuance, og den skal med, før nogen bliver for forelskede i arkitekturtegningen. Et styret datalag gør ikke automatisk data rene, komplette eller opdaterede. AI News er ret klar på det punkt mellem linjerne: Et velstyret system kan stadig levere dårlige resultater, hvis kildedata er fejlbehæftede. Governance er ikke en vaskemaskine. Det er mere et sæt rækværk, logbøger og færdselsregler.

Så nej, et unified view løser ikke alt. Hvis stamdata sejler, hvis ejerskabet er uklart, eller hvis ingen kan forklare, hvilken kilde der er autoritativ for hvad, så står problemet stadig og glor tilbage. Forskellen er, at man med en styret adgang til data i det mindste gør adfærden mere sporbar, mere ensartet og mindre afhængig af tilfældige integrationer. Det er ikke glamourøst. Men det er den slags, der holder driften oppe.

Dataanalytiker undersøger sporbarhed og dataproblemer i et AI-workflow på kontoret

Det større skifte er allerede i gang

Som baggrund for udviklingen peger en anden AI News-artikel fra december 2025 på, at markedet bevæger sig fra eksperimentel generativ AI mod mere autonome systemer, der kan udføre workflows med minimal supervision. Den kilde skal ikke bruges til at puste hovedhistorien kunstigt op, men den passer godt med retningen: mindre fascination af modelparametre alene, mere fokus på den infrastruktur og governance, der omgiver systemerne.

For mange virksomheder bliver den virkelige prøve derfor ikke, om de kan få en AI-agent til at se smart ud i en demo. Det kan man som regel. Spørgsmålet er, om agenten må bruge de rigtige kilder, om reglerne er ens på tværs, og om nogen bagefter kan forklare, hvorfor den gjorde, som den gjorde. Den del er mindre sexet. Og meget mere afgørende.

Ledelsesopgaven ligger under motorhjelmen

Hvis man skal oversætte nyheden til et jordnært ledelsesperspektiv, er konklusionen ret ligetil. Før man slipper autonome AI-systemer løs i vigtige workflows, bør man få styr på, hvilke datakilder de må bruge, hvor versioner kolliderer, hvem der ejer adgangsreglerne, og om beslutninger kan spores bagefter. Ikke i et idealiseret fremtidsdiagram, men i den faktiske systembunke virksomheden allerede lever med.

Det lyder ikke som den del, der får konferencelokalet til at summe. Men det er ofte dér, risikoen bor. Ikke kun i modellen, men under den. Nede i datalaget, hvor gamle integrationer, lokale særregler og halvglemte databaser stadig styrer mere, end nogen har lyst til at indrømme.

Kilder

    Gør brugeroplevelsen bedre.
    Hvilket firma arbejder du for?