En fejl, der ikke bare var en fejl
Det er tirsdag morgen i et mellemstort dansk revisionshus. En økonomimedarbejder, lad os kalde hende Mette, sidder med et AI-værktøj, der skal hjælpe med at gennemgå regnskaber. Hun har travlt. Hun får en anbefaling fra systemet om at godkende en række bilag – og klikker bare videre. Dagen efter ringer en kunde. Der er fejl i rapporten. En større postering er blevet bogført dobbelt. Mette havde ikke opdaget det, fordi hun stolede på AI’ens output. Ingen dobbelttjek, ingen kritisk sans. Bare godkendt. Det var ikke bare en teoretisk fejl – det kostede virksomheden både tid og troværdighed. Jeg kan stadig huske den lette summen fra kaffemaskinen i baggrunden, da vi hørte om det første gang. Det lød næsten for banalt til at være sandt. Men det er præcis det, der sker, når cognitive surrender sniger sig ind.

Hvad betyder cognitive surrender egentlig?
Begrebet er nyt, men problemet er ældgammelt: At vi overtager maskinens svar uden at tænke selv. Wharton-studiet definerer cognitive surrender som tendensen til at acceptere AI’ens output med minimal eftertanke – vi slukker for både intuition og analyse. Det er ikke det samme som cognitive offloading, hvor vi bruger værktøjer som lommeregner eller Google Maps, men stadig vurderer, om svaret giver mening. Cognitive surrender er, når vi bare tager svaret og bruger det. Ingen spørgsmål, ingen skepsis. Det er autopilot – og det er farligt.
Wharton-studiets vigtigste pointer
Studiet fra Wharton School lavede tre eksperimenter med over 1.300 deltagere. Deltagerne fik logiske opgaver, hvor AI’en nogle gange gav det rigtige, men ulogiske svar – og andre gange det forkerte, men intuitive svar. Resultaterne var slående: Folk brugte AI’en i over halvdelen af forsøgene, uanset om svaret var rigtigt eller forkert. Når AI’en tog fejl, fulgte deltagerne det forkerte svar 80% af gangene. Og – måske mest skræmmende – deres selvtillid steg, selv når de tog fejl. De lånte AI’ens selvsikkerhed uden at tjekke, om den havde ret. MIT-studiet viste faktisk, at hjernens aktivitet falder, når vi bare accepterer AI’ens svar. Det er ikke kun adfærden, der ændrer sig – det er selve vores måde at tænke på.
Konsekvenser for HR og medarbejderudvikling
Hvis medarbejdere altid vælger den nemme AI-løsning, risikerer de at miste evnen til at tænke kritisk og lære nyt. Vi har set det selv: Nogle HR-teams begynder at stole blindt på AI til at screene ansøgninger eller foreslå udviklingsplaner. Det kan føre til, at de overser talenter eller fejlbedømmer medarbejdere. HR bør derfor træne folk i at stille spørgsmål til AI’ens output og skabe en kultur, hvor det er ok at udfordre maskinen. Det handler ikke om at være AI-fjendtlig, men om at bevare dømmekraften. Et simpelt tip: Lad medarbejdere forklare, hvorfor de vælger at følge eller afvise AI’ens forslag – det tvinger dem til at engagere sig aktivt.

IT og projektledelse: Hvor det kan gå galt – og godt
Vi har set projekter, hvor teams bare implementerer AI-genererede løsninger uden at stille de kritiske spørgsmål. Det kan føre til fejl i software, forkerte prioriteringer eller misforståede krav. En kunde fortalte os, hvordan et projekt gik i stå, fordi ingen turde udfordre AI’ens anbefaling om at droppe en vigtig funktion. Det var først, da en erfaren projektleder insisterede på at dobbelttjekke, at fejlen blev opdaget. Løsningen? Design processer, hvor AI bruges som supplement – ikke som erstatning. Indfør faste rutiner for review og diskussion, hvor AI’ens output altid bliver udfordret af mindst én person.
Kommunikation og indhold: Når stemmen forsvinder
AI kan hurtigt gøre kommunikation ensformig eller fyldt med fejl, hvis man bare godkender alt, den skriver. Vi har set eksempler på interne nyhedsbreve, hvor AI’ens forslag blev sendt ud uden rettelser – og det var tydeligt. Sproget blev fladt, og vigtige nuancer forsvandt. For at bevare den menneskelige stemme skal man altid læse AI-genereret tekst igennem og spørge: Lyder det som os? Er der noget, der ikke giver mening? Det tager tid, men det er nødvendigt, hvis man vil undgå at ende som en kopi af alle andre.

Økonomi og risikostyring: Når tallene snyder
Cognitive surrender kan føre til fejlinvesteringer eller risikable beslutninger, hvis økonomiansvarlige ikke dobbelttjekker AI’ens anbefalinger. Wharton-studiet viste, at tilliden til AI var den stærkeste faktor for, om folk fulgte forkerte svar – og at fejlene blev dyrere, jo mere komplekse beslutningerne var. Vores råd: Indfør altid et ekstra review af AI-genererede økonomiske analyser. Brug checklister og kræv, at folk forklarer, hvorfor de følger en anbefaling. Det lyder banalt, men det virker.

Digitalisering og design af AI-løsninger
Hvordan kan man så designe AI-værktøjer, der hjælper brugeren med at tænke selv? En metode er at få AI’en til at vise, hvor usikker den er, eller at kræve en begrundelse for hvert svar. Nogle systemer kan også give alternative forslag, så brugeren skal vælge og begrunde. Vi har set prototyper, hvor brugeren skal skrive en kort forklaring, før de kan godkende AI’ens output. Det bremser autopiloten og holder hjernen tændt. Det er ikke perfekt, men det er et skridt i den rigtige retning. Måling af cognitive surrender kan ske ved at tracke, hvor ofte folk bare klikker videre uden at ændre noget – eller hvor ofte de faktisk retter AI’ens forslag.
Hvad gør vi nu?
AI skal gøre dig klogere – ikke dummere. Det er fristende bare at følge maskinens svar, især når man har travlt. Men hvis vi ikke passer på, mister vi evnen til at tænke selv. Vores råd? Gør det til en vane at udfordre AI – også når det virker nemt. Spørg dig selv: Ville jeg have svaret det samme uden AI? Og hvis ikke, hvorfor så stole på det? Virksomheder bør tage aktivt stilling til, hvordan AI bruges, og aldrig lade værktøjet erstatte dømmekraften. Man opdager først forskellen, når man sidder med det i hænderne – og det er ofte for sent, hvis man bare har trykket godkend.
Kilder:
- https://www.thealgorithmicbridge.com/p/a-new-wharton-study-on-ai-warns-of
- https://thedecisionlab.com/reference-guide/philosophy/system-1-and-system-2-thinking
- https://www.media.mit.edu/publications/your-brain-on-chatgpt/
- https://www.thealgorithmicbridge.com/p/the-neuron-that-wanted-to-be-god
- https://www.linkedin.com/posts/ilan-lobel-85596250_i-am-thrilled-to-announce-that-we-are-launching-activity-7422734990070898688-Zph3
Målgruppens mening om artiklen
Mette, Økonomimedarbejder:
Jeg giver artiklen 90. Den rammer virkelig plet i forhold til de udfordringer, jeg selv oplever med AI i hverdagen. Eksemplet med dobbeltposteringen kunne lige så godt være sket for mig eller mine kolleger. Artiklen forklarer meget konkret, hvorfor det er farligt bare at stole på AI, og jeg synes, det er vigtigt, at vi bliver mindet om at bruge vores kritiske sans.
Anders, IT-projektleder:
Jeg giver den 85. Artiklen beskriver meget præcist de faldgruber, vi ser i projekter, hvor folk bare implementerer AI-løsninger uden at stille spørgsmål. Jeg kunne godt have ønsket mig endnu flere konkrete eksempler fra IT-projekter, men budskabet om at AI skal supplere – ikke erstatte – menneskelig dømmekraft er spot on.
Louise, HR-chef:
Jeg giver artiklen 80. Den sætter fokus på et problem, vi faktisk kæmper med i HR, nemlig at folk bliver for ukritiske over for AI’s anbefalinger. Jeg synes, det er relevant, at der gives forslag til, hvordan man kan træne medarbejdere i at udfordre AI, men jeg savner lidt flere praktiske værktøjer til HR-arbejdet.
Jonas, Kommunikationsansvarlig:
Jeg giver den 75. Artiklen rammer et vigtigt punkt omkring, hvordan AI kan gøre kommunikation ensformig og fejlbehæftet, hvis man ikke er opmærksom. Jeg synes dog, afsnittet om kommunikation kunne have været mere detaljeret og givet flere eksempler på, hvordan man bevarer den menneskelige stemme.
Sofie, Digitaliseringskonsulent:
Jeg giver artiklen 88. Den forklarer rigtig godt, hvordan man kan designe AI-løsninger, der tvinger brugeren til at tænke selv. Jeg kunne godt have brugt lidt mere om konkrete designprincipper, men jeg er enig i, at det er vejen frem at gøre det sværere bare at godkende AI-output.
*Denne artiklen er skrevet af en redaktion bestående af kunstig intelligenser, der har skrevet artiklen på baggrund af automatiseret research og oplysninger om de seneste teknologi nyheder fra internettet.
Billederne i artiklen er lavet af Gemini 3 Pro Nano Banana 2 Pro fra Google.
Book Din AI-Booster Samtale
– Ingen Tekniske Forudsætninger Påkrævet!
Er du nysgerrig på, hvad generativ AI er og hvordan AI kan løfte din virksomhed? Book en gratis og uforpligtende 30 minutters online samtale med vores AI-eksperter. Du behøver ingen teknisk viden – blot en computer eller telefon med internetforbindelse.
I samtalen kigger vi på dine muligheder og identificerer, hvor AI kan optimere jeres arbejdsprocesser og skabe værdi. Det er helt uden bindinger, og vi tilpasser rådgivningen til lige præcis jeres behov.
Fordele ved samtalen:
- Samtalen handler om dig og dine behov
- Indblik i AIs potentiale for din virksomhed
- Konkrete idéer til effektivisering af dine processer
- Personlig rådgivning uden teknisk jargon
Det handler om at skabe værdi for dig