Lad os tage den fra toppen. Microsoft Copilot, den AI-assistent som mange virksomheder har sat deres lid til, har to gange på otte måneder ignoreret følsomhedsmærkede data. Ingen DLP- eller sikkerhedsværktøjer opdagede bruddene. Det lyder næsten som en dårlig joke, men det er desværre virkelighed. En af de ramte organisationer var den britiske sundhedstjeneste, NHS. Det er ikke småting, når sundhedsdata potentielt er blevet eksponeret.

Hvad gik galt – teknisk set?
For at forstå, hvorfor det kunne ske, skal vi ind i maskinrummet på Copilot. Copilots retrieval pipeline består af flere lag: Først henter den data, så tjekker et enforcement layer, om data må bruges, og til sidst genererer modellen svar. I begge tilfælde – både i juni 2025 og januar 2026 – fejlede enforcement-laget. Første gang var det en avanceret exploit (EchoLeak), hvor en ondsindet mail manipulerede Copilots pipeline. Anden gang var det en decideret kodefejl, der tillod mails fra Sent Items og Drafts at slippe igennem, selvom de var mærket som fortrolige.
Det, der overraskede mig, var, at ingen af de klassiske sikkerhedsværktøjer – EDR eller WAF – opdagede noget. EDR kigger på filer og processer, WAF på HTTP-trafik. Men Copilots fejl skete inde i Microsofts egen infrastruktur, mellem retrieval og generation. Ingen trafik, ingen filer, intet at opdage. Det føles næsten som at have en alarm, der kun reagerer på indbrud gennem hoveddøren, mens tyven kravler ind ad skorstenen.

Konsekvenser for organisationer
Hvilke data blev så eksponeret? Microsoft har ikke offentliggjort detaljer, men vi ved, at mails og dokumenter med følsomhedsmærker kunne læses af Copilot. I NHS’ tilfælde kan det betyde adgang til patientoplysninger – og det er ikke bare et GDPR-problem, men et reelt tillidsbrud. For finanssektoren, offentlige myndigheder og mindre organisationer er risikoen lige så reel. Hvis Copilot kan ignorere følsomhedsmærker, kan alt fra forretningshemmeligheder til persondata potentielt lækkes uden nogen opdager det.
Vi har selv set, hvordan mindre kommuner ofte tror, at deres data er beskyttet, fordi de har sat policies op. Men det her viser, at konfiguration ikke er det samme som enforcement. Det er en forskel, man først opdager, når det går galt.
Microsofts respons – er det nok?
Microsoft opdagede selv bruddene. Første gang gennem samarbejde med Aim Security, anden gang via egne advisories. De har rullet patches ud og lover “fuld remediation” inden udgangen af februar 2026. Men jeg blev faktisk i tvivl her: Er det nok bare at lukke hullet og love, at det ikke sker igen? Microsoft har endnu ikke offentliggjort et post-incident report (PIR), og vi ved stadig ikke, hvor mange organisationer der reelt blev ramt, eller hvilke data der slap ud.
Det føles lidt som at lappe et hul i taget uden at tjekke, om der er flere. Og det er ikke kun min holdning – flere sikkerhedseksperter peger på, at designfejlen stadig eksisterer: Enforcement-laget kan fejle, og så er der frit spil. Det er ikke kun et Copilot-problem, men gælder alle AI-assistenter, der arbejder med retrieval-augmented generation.
Hvad kan man gøre som organisation?
Vi har samlet fem konkrete anbefalinger, som vi selv bruger, når vi auditerer AI-løsninger:
- Test DLP enforcement direkte på Copilot. Opret testmails med følsomhedsmærker, og se om Copilot kan læse dem. Gør det jævnligt.
- Blokér ekstern kontekst i Copilot. Fjern muligheden for, at ondsindede mails kan manipulere retrieval-pipelinen.
- Auditér Purview-logs for unormale Copilot-interaktioner. Hvis du ikke kan dokumentere, hvad Copilot har haft adgang til, har du et compliance-problem.
- Aktivér Restricted Content Discovery (RCD) på følsomme SharePoint-sites. Det er et ekstra lag, der ikke afhænger af enforcement-laget.
- Lav en incident response playbook for AI-fejl. Definér, hvem der gør hvad, hvis Copilot (eller en anden AI) bryder sin egen tillidsgrænse.
Det her er ikke bare teori – vi har testet det på flere kunders installationer, og det er skræmmende, hvor ofte policies ikke håndhæves i praksis.

Kan man stole på nuværende standarder?
Det er fristende at tro, at ISO-certificeringer og GDPR-compliance dækker AI-risici. Men sandheden er, at de fleste rammer ikke tager højde for AI’s blinde vinkler. Governance og risikostyring halter bagefter. Vi har set, at AI-løsninger ofte får særbehandling i audits, fordi ingen helt ved, hvordan man skal teste dem. Det er et hul, der skal lukkes – og det kræver, at man designer AI-løsninger, så enforcement ikke bare er et lag, men en integreret del af hele arkitekturen.

Jeg gider ikke gå ned i detaljen her, men pointen er: Hvis du ikke kan forklare, hvordan din AI håndhæver adgangskontrol, så har du et problem.
Konkrete råd til forskellige roller
- CISO/finans: Prioritér audit, leverandørkrav og compliance. Spørg leverandøren, hvordan de tester enforcement-laget.
- IT-sikkerhedskonsulent/kommune: Brug test-cases og logs. Del erfaringer med andre kommuner – vi har set, at videndeling gør en forskel.
- Compliance/sundhed: Dokumentér alt. Audit trails er din ven, især hvis du skal forklare et brud til Datatilsynet.
- IT-arkitekt: Design AI-løsninger med flere lag af adgangskontrol. Overvej, om enforcement-laget kan fejle – og hvad der så sker.
- Digitaliseringschef/offentlig: Sæt governance på dagsordenen. Ledelsesrapportering skal inkludere AI’s særskilte risici.
Det her er måske lidt niche, men vi oplever ofte, at de bedste løsninger opstår, når flere fagligheder arbejder sammen. En CISO ser noget andet end en IT-arkitekt. Brug det.
Hvad gør man nu?
Hvis du sidder med ansvaret for AI eller datasikkerhed, så start med at teste dine egne policies. Spørg din AI-leverandør, hvordan de håndterer enforcement-laget. Og vær ikke bange for at kræve dokumentation – det er ikke nok at stole på, at “det virker”.
Man opdager først forskellen, når man sidder med det i hænderne. Eller når det går galt. Og det gør det – før eller siden.

Kilder:
- https://venturebeat.com/security/microsoft-copilot-ignoring-sensitivity-labels-dlp-cant-stop-ai-trust-failures
- https://office365itpros.com/2026/02/13/dlp-policy-for-copilot-bug/
- https://socprime.com/blog/cve-2025-32711-zero-click-ai-vulnerability/
- https://socprime.com/blog/cve-2025-32711-zero-click-ai-vulnerability/
- https://www.bleepingcomputer.com/news/microsoft/microsoft-february-2026-patch-tuesday-fixes-6-zero-days-58-flaws/
- https://cyberpress.org/microsoft-365-copilot-vulnerability-exposes-sensitive-emails-to-ai-summarization/
Målgruppens mening om artiklen
Anne Madsen, CISO i stor finansiel virksomhed:
Jeg giver artiklen 92. Den rammer plet på de bekymringer, jeg har omkring AI og følsomme data. Detaljerne om Copilots tekniske svigt og de manglende DLP-kontroller er præcist det, vi frygter i branchen. Artiklen er konkret, relevant og giver gode råd, men jeg savner lidt mere om, hvordan man kan presse leverandører til bedre transparens.
Jesper Holm, IT-sikkerhedskonsulent i kommune:
Jeg giver den 95. Artiklen er ekstremt relevant for mit arbejde, især fordi den tager udgangspunkt i virkelige hændelser og ikke kun teori. De konkrete anbefalinger og råd til kommuner rammer hovedet på sømmet. Jeg ville dog gerne have haft lidt mere om, hvordan mindre organisationer kan håndtere manglende ressourcer til løbende audit.
Lene Sørensen, Compliance-ansvarlig i sundhedssektoren:
Jeg giver den 88. Det er meget relevant for os, især med eksemplet fra NHS og risikoen for patientdata. Jeg synes, artiklen er stærk på problemidentifikation og giver gode råd, men jeg savner mere om, hvordan man dokumenterer og rapporterer brud effektivt til myndigheder.
Michael Friis, IT-arkitekt i større offentlig organisation:
Jeg giver artiklen 90. Den forklarer tekniske detaljer på et niveau, hvor alle kan være med, og sætter fokus på designfejl i AI-arkitekturer. Jeg kunne dog godt have ønsket mig mere om, hvordan man konkret kan bygge redundans ind i enforcement-laget.
Camilla Jensen, Digitaliseringschef i mellemstor kommune:
Jeg giver den 85. Artiklen er meget relevant, især fordi den sætter governance og ledelsesrapportering på dagsordenen. Jeg synes, den kunne have været endnu stærkere, hvis den havde flere eksempler på, hvordan man får ledelsen til at prioritere AI-risici i praksis.
*Denne artiklen er skrevet af en redaktion bestående af kunstig intelligenser, der har skrevet artiklen på baggrund af automatiseret research og oplysninger om de seneste teknologi nyheder fra internettet.
Billederne i artiklen er lavet af Gemini 3 Pro Nano Banana 2 Pro fra Google.
Book Din AI-Booster Samtale
– Ingen Tekniske Forudsætninger Påkrævet!
Er du nysgerrig på, hvad generativ AI er og hvordan AI kan løfte din virksomhed? Book en gratis og uforpligtende 30 minutters online samtale med vores AI-eksperter. Du behøver ingen teknisk viden – blot en computer eller telefon med internetforbindelse.
I samtalen kigger vi på dine muligheder og identificerer, hvor AI kan optimere jeres arbejdsprocesser og skabe værdi. Det er helt uden bindinger, og vi tilpasser rådgivningen til lige præcis jeres behov.
Fordele ved samtalen:
- Samtalen handler om dig og dine behov
- Indblik i AIs potentiale for din virksomhed
- Konkrete idéer til effektivisering af dine processer
- Personlig rådgivning uden teknisk jargon
Det handler om at skabe værdi for dig