Snilld

Microsoft kalder Copilot underholdning og det bør virksomheder tage alvorligt

Microsofts egne Copilot-vilkår siger nu direkte, at Copilot er "for entertainment purposes only" og "can make mistakes". Det lyder næsten som en joke, men for virksomheder er pointen mere jordnær: Leverandøren siger selv, at generativ AI ikke må bruges med blind tillid. Det vigtige skel går mellem forbruger-Copilot og Microsoft 365 Copilot, og derfra handler resten om kontrol, ansvar og drift.

6. april 2026 Peter Munkholm

Der er sætninger, man læser to gange, fordi de lyder som noget, en jurist har fået lov at formulere helt uden modstand. Microsofts Copilot-vilkår siger nu sort på hvidt, at “Copilot is for entertainment purposes only”. Samme tekst siger også, at tjenesten “can make mistakes”. Og den version af vilkårene, vi taler om her, er markeret som gældende fra 24. oktober 2025.

Det første instinkt er næsten at grine lidt. Underholdning? Er det ikke den AI, millioner af mennesker får præsenteret som hjælper, assistent, arbejdsmakker og alt muligt andet med pæne produktbilleder? Jo. Men det mest interessante er ikke formuleringen i sig selv. Det er signalet. Microsoft skriver, med egne ord, at man ikke skal bygge sin virkelighedsforståelse på et generativt system.

Hvad vilkårene faktisk siger

Lad os tage det nøgternt, for her bliver mange overskrifter hurtigt lidt for glade for drama. I Microsofts Copilot Terms of Use står der blandt andet, at brugeren “can only use Copilot for your own personal use”. Der står også, at Copilot er “for entertainment purposes only” og at det “can make mistakes”. Det er de centrale formuleringer, og de er ikke parafraser. De står i den viste tekst.

Der er en detalje mere, og den er vigtigere, end den ser ud til. Microsoft skriver også, at de vilkår ikke gælder for Microsoft 365 Copilot-apps eller -tjenester, medmindre den specifikke app eller tjeneste siger, at vilkårene gælder. Med andre ord: Man kan ikke bare læse den her tekst som et stempel på hele Microsofts AI-portefølje. Det ville være for hurtigt. Og, ærligt, lidt dovent.

Præcis den skillelinje betyder noget i praksis. For hvis man kun læser citatet løsrevet, er det fristende at konkludere, at “Microsoft indrømmer, at deres AI bare er legetøj”. Det er ikke det, der står. Det, der står, er mere snørklet og mere juridisk end som så: Vilkårene for Copilot som produkt gælder ikke automatisk Microsoft 365 Copilot-apps og -tjenester.

En jurist og en produktleder gennemgår vilkår og ansvar for brug af AI ved et mødebord.

Det er ikke komisk, det er driftsrelevant

TechCrunch ramte nyheden med en pointe, som faktisk er værd at dvæle ved: Det er ikke kun kritikere, der advarer mod at stole blindt på modeloutput. AI-selskaberne gør det også selv i deres egne vilkår. Det er måske den mindst glamourøse måde at få en sandhed frem på, men stadig. Juridisk tekst har det med at være ærlig på en måde, marketing sjældent er.

Vi synes, det er den rigtige læsning af historien. Ikke at Copilot er ubrugelig. Ikke at alt generativ AI er en slags digital tryllekunst for voksne mennesker med abonnement. Men at leverandøren selv understreger et grundvilkår, som mange stadig forsøger at tale udenom: Modeller gætter kvalificeret. De slår ikke sandheden op i himlen. De producerer sandsynlige svar, ikke nødvendigvis korrekte svar.

Banner

Det lyder banalt, ja, men det er præcis dér mange organisationer går skævt. De ser en imponerende demo, får et flydende svar tilbage, og så sker der noget mærkeligt i hovedet. Fordi sproget lyder sikkert, begynder folk også at tro, at indholdet er sikkert. Det er det hul, man falder i. Ikke altid med et brag. Nogle gange bare med et lille, dyrt plask.

Den oplagte misforståelse

Så lad os få den ryddet af vejen. Nej, Microsoft siger ikke her, at hele deres AI-forretning er “kun til underholdning”. Kilden viser tværtimod en afgrænsning, hvor Microsoft 365 Copilot-apps og -tjenester ikke automatisk er omfattet af de citerede Copilot-vilkår. Det er en faktuel skillelinje, og hvis man springer hen over den, ender man med en skarp overskrift og en sløset analyse.

Det gør ikke historien mindre vigtig. Tværtimod. For når et selskab på den størrelse formulerer sig så defensivt om et generativt produkt, er det et ret klart tegn på, hvordan teknologien faktisk bør forstås: som noget der kan være enormt nyttigt, men som ikke bør få lov at køre uden kontrol. Jurister skriver ofte bredt for at begrænse ansvar, selvfølgelig gør de det. Men selv hvis man læser sætningen sådan, ændrer det ikke den operationelle pointe.

Microsoft forventer ikke, at brugeren skal stole blindt på output. Det er egentlig den centrale besked. Resten er jurasprog, produktgrænser og den slags små bogstaver, som ingen gider læse før efter skaden er sket.

Hvad virksomheder bør høre i det her

For virksomheder er spørgsmålet ikke, om generativ AI må bruges. Det tog vi ligesom hul på for længe siden. Spørgsmålet er, hvor kontrollen skal ligge. Hvis et system kan skrive mails, opsummere dokumenter, foreslå analyser, hjælpe kundeservice eller generere kode, så er næste spørgsmål altid det samme: Hvem validerer, hvad der kommer ud, og hvordan kan man se, hvad der er sket?

Det er her, leverandørens ansvarsfraskrivelse bliver praktisk. Ikke dramatisk. Praktisk. For når Microsoft selv skriver, at Copilot kan tage fejl, så bør ingen virksomhed designe en arbejdsgang, hvor output går direkte videre til kunde, kontrakt, ledelsesrapport eller afgørelse uden et ekstra lag kontrol. Det burde være indlysende, men vi har set nok til at vide, at det ikke altid er det.

Vi ser tit den samme fejl i organisationer, som er lidt for forelskede i selve prompten. Man tror, at hvis bare man skriver instruktionen godt nok, så er problemet løst. Det er det sjældent. Det, der mangler, er ofte de kedelige ting. Kildekrav. Logning. En faglig godkender. En regel for, hvornår AI må lave første udkast, og hvornår den skal holdes langt væk fra send-knappen. Små ting. Dyre ting, når de mangler.

Et driftsteam vurderer AI-output på skærme og taler om kontrol og godkendelse.

Lav risiko er ikke det samme som høj risiko

Der er stor forskel på opgaver. Et første udkast til en intern brainstorm, en rå opsummering af et langt møde eller en kladde til et notat er én type brug. Her kan generativ AI være absurd nyttig, netop fordi fejl ikke nødvendigvis går direkte i produktion. Der er luft i processen. Et menneske kan skære til, rette op, smide væk og begynde forfra uden større dramatik.

Helt anderledes ser det ud, når output får konsekvenser uden meget friktion. Kundesvar. Kontrakttekst. Regulatorisk indhold. Beslutningsstøtte. Den slags. Der begynder selv små unøjagtigheder at få en anden vægt. Et overbevisende forkert svar er værre end et kluntet rigtigt et, og det er lidt den irriterende sandhed ved sprogligt stærke modeller: de kan tage fejl med stor ro i stemmen.

Banner

Det her er måske lidt niche, men vi synes faktisk, det er dér mange ledere skal starte. Ikke med spørgsmålet “hvilken model er bedst?” men med “hvilke opgaver tåler fejl, og hvilke gør ikke?” Den øvelse lyder mindre sexet på et slide, men den virker. Resten kommer bagefter.

En robust opsætning er sjældent særlig romantisk

Når AI fungerer godt i drift, er det som regel ikke, fordi modellen alene er genial. Det er, fordi nogen har bygget en ordentlig ramme rundt om den. Valg af model betyder noget, ja. Adgang til de rigtige data betyder også noget. Men valideringslag, logning, sporbarhed og menneskelig godkendelse betyder ofte mere, end folk har lyst til at indrømme, fordi det lyder som administration. Og ingen forelsker sig i auditlogs. Jeg gør i hvert fald ikke.

En robust opsætning består typisk af nogle få ret jordnære ting. Hvem må bruge systemet til hvad. Hvilke datakilder må det trække på. Hvilke svar skal have kilder eller dokumentation. Hvornår skal et menneske godkende. Og hvornår skal systemet ganske enkelt stoppe og sige, at det ikke ved det. Hvis den sidste del mangler, får man ofte et system, der lyder hjælpsomt helt frem til det øjeblik, hvor det bliver decideret farligt.

Der er også spørgsmålet om sporbarhed. Hvis et AI-svar senere viser sig at være forkert, skal man kunne se, hvad der blev spurgt om, hvilke data der lå bag, og hvem der godkendte. Uden det bliver fejl bare til tåge. Og tåge er et dårligt styringsværktøj, uanset hvor moderne grænsefladen ser ud.

Skeptikeren har delvist ret

Den skeptiske indvending er oplagt: juridiske vilkår er skrevet for at minimere ansvar, ikke for at give et teknisk præcist billede af produktets kvalitet. Det er rigtigt. Man skal passe på med at læse enhver juridisk formulering som et direkte produktreview. Den fælde findes også her.

Men. Selv hvis man giver skeptikeren fuldt medhold i det, står én ting tilbage. Microsoft har stadig valgt at skrive, at Copilot er til underholdning, at det kan lave fejl, og at de citerede vilkår ikke automatisk gælder Microsoft 365 Copilot-apps og -tjenester. Det er den dokumenterede tekst. Og den tekst peger i samme retning som den erfaring mange virksomheder allerede har gjort sig: generativ AI er bedst i en kontrolleret proces, ikke som autonom ekspert med fri bane.

Jeg blev faktisk ikke overrasket over selve advarslen. Mere over hvor mange der stadig bliver overraskede, når leverandører siger den højt. Vi har efterhånden været igennem nok pilotprojekter til at vide, at forskellen mellem en flot demo og stabil drift sjældent ligger i modelnavnet alene. Den ligger i arbejdet rundt om modellen. Det kedelige arbejde. Det virker desværre stadig.

En medarbejder kvalitetssikrer et AI-genereret dokument og retter fejl ved skrivebordet.

Den jordnære lektie

Så hvad er den rigtige konklusion? Ikke at virksomheder skal droppe AI. Det ville være lige så overdrevet som at kalde alting revolutionerende, bare fordi det kan skrive i hele sætninger. Den bedre konklusion er, at man skal droppe fantasien om AI som en sandhedsmaskine, der kan stå alene. Den fantasi har altid været dyr. Nu siger leverandøren det bare lidt tydeligere end normalt.

Microsofts formulering ændrer ikke ved, at generativ AI kan være meget værdifuld i arbejde med tekst, viden, kodning, søgning og udkast. Vi bruger selv den slags værktøjer, og når de er sat ordentligt op, kan de flytte forbavsende meget. Men værdien opstår ikke af tillid alene. Den opstår, fordi man bygger kontrol ind. Det er ikke en poetisk pointe, bare en lidt træt mandagsrealitet.

Mange opdager først forskellen mellem demo og drift, når systemet en mandag morgen skriver noget, der lyder helt overbevisende og er helt forkert. Det er som regel dér, snakken om governance pludselig bliver meget konkret.

Kilder

    Gør brugeroplevelsen bedre.
    Hvilket firma arbejder du for?