Snilld

Google fjerner AI-overblik på sundhedssøgninger efter afsløring af farlige fejl

Google har fjernet sine AI Overviews for visse medicinske søgninger efter kritik af fejlinformation. Sagen rejser spørgsmål om datasikkerhed, kvalitetssikring og offentlighedens tillid til AI i sundhedssektoren. Vi dykker ned i konsekvenserne og giver anbefalinger til danske aktører.

12. januar 2026 Peter Munkholm

Google har trukket stikket på sine AI-genererede overbliksbokse – de såkaldte AI Overviews – for en række medicinske søgninger. Det sker efter en bølge af kritik, hvor især The Guardian har afdækket, at AI’en leverede misvisende og i nogle tilfælde direkte farlige svar på sundhedsrelaterede spørgsmål. Eksempel: Hvis du søgte på “what is the normal range for liver blood tests”, fik du tal uden kontekst. Ingen forskel på alder, køn eller etnicitet. Det lyder måske teknisk, men det kan have ret alvorlige konsekvenser.

AI og sundhed: Hvorfor er det her vigtigt?

Det er ikke bare en nørdet detalje. Sundhedsoplysninger fra AI bliver brugt af rigtige mennesker – ofte i sårbare situationer. Når AI’en rammer ved siden af, kan det føre til forkerte beslutninger. Måske springer nogen et lægebesøg over, fordi de tror, deres prøver er fine. Eller de bliver unødigt bekymrede. Det er ikke bare et spørgsmål om teknik, men om folks liv og helbred. Vi har selv set, hvordan selv små fejl i AI-råd kan skabe stor usikkerhed blandt brugere, især når det gælder noget så følsomt som helbred.

Et kraftfuldt og fascinerende foto, der poetisk visualiserer den komplekse og ofte skjulte virkelighed af AI-sundhedsdata. Billedet præsenterer en nærbilleds-agtig, dokumentarisk sammensætning af en typisk moderne klinisk indretning: et gennemsigtigt, futuristisk laboratorie med flere lag af dataoverlejringer – digitale grids, flydende tal og grafer, der er projiceret over røgfyldte, neutrale baggrunde. I midten står en laboratoriebord med en futuristisk, men stadig realistisk, medicinsk analyse-enhed, hvor komplekse korrelationer mellem blodprøver og patientdata skitseres på små, holografiske displays. Omgivet af bløde lysrefleksioner, der afspejler en højgrads-teknologisk atmosfære, kan man skimte subtile visuelle referencer til farverige, usynlige data-strømme, der flyder gennem rummet som usynlige arterier, hvilket symboliserer den skjulte og potente kraft af AI i sundhedssektoren. Uden at vise personer direkte, formidler billedet en nutidig, saglig virkelighed af, hvordan avancerede data- og AI-teknolo

Konkrete AI-fejl: Når algoritmen gætter forkert

Et af de mest opsigtsvækkende eksempler var netop leverprøverne. AI Overviews præsenterede referenceværdier uden at tage højde for, at “normal” faktisk varierer voldsomt. Det er ikke ligegyldigt, om du er en 25-årig kvinde eller en 70-årig mand. Alligevel fik alle brugere de samme tal. Der var også eksempler på, at AI’en gav forkerte råd om kost til kræftpatienter – fx at folk med bugspytkirtelkræft skulle undgå fed mad, hvilket er det stik modsatte af, hvad eksperter anbefaler. Det er ikke bare en fodfejl. Det kan koste liv.

Sikkerhed og privatliv: Når AI’en rammer ved siden af

Der er også et datasikkerhedsperspektiv. Når AI-modeller håndterer sundhedsdata, er der risiko for, at følsomme oplysninger bliver brugt forkert eller lækket. Det er ikke sket i denne sag, men det ligger som en konstant trussel. Virksomheder bør have klare processer for at beskytte brugernes privatliv – både teknisk og organisatorisk. Vi har oplevet, at mange virksomheder undervurderer, hvor hurtigt en AI-fejl kan udvikle sig til et sikkerhedsproblem. Det er ikke kun et spørgsmål om at rette en tekst – det kan være hele systemet, der skal gentænkes.

Kvalitetssikring og ansvar: Hvem har hånden på kogepladen?

Hvordan sikrer man, at AI-svar om sundhed er korrekte? Det korte svar: Det er svært. Mange AI-leverandører lover, at de bruger “kvalitetssikrede kilder” og har “eksperter” inde over. Men som vi har set her, kan selv de bedste systemer fejle. Der bør stilles langt skrappere krav til dokumentation, løbende validering og mulighed for at klage over forkerte svar. Og så skal der være gennemsigtighed: Hvem har skrevet, hvem har godkendt, og hvordan retter man fejl?

Det mest fængende og spændende billede, der tydeligt afspejler artiklens kerne, kunne være et realistisk, dokumentaristisk nærbillede af en moderne sundhedsplejesituation, hvor en stor, tydeligt teknologisk avanceret AI-enhed – en slags futuristisk, men alligevel jordnær maskine – står i fokus midt i et klinisk miljø. Den er ikke en sci-fi-scene, men en stramt oplyst, dagslysbelyst klinik med en hospitalsseng eller en medicinsk teststation i baggrunden, hvor en sundhedspersonale eller patient er fraværende, hvilket understreger maskinens rolle som en uundværlig, men potentiel farlig aktør. Farvetonerne er neutrale, med indslag af blåt, hvidt og gråt, hvor LED-lysene på enheden skifter i bløde, men tydelige nuancer, der symboliserer både teknologiens kraft og dens skrøbelighed – en visuel metafor for AI'ens potentiale og risiko i sundhedssektoren.

Reelle konsekvenser: Når AI-fejl rammer patienter

The Guardian har dokumenteret flere eksempler, hvor AI-fejl kunne have haft alvorlige konsekvenser. En patient med leverproblemer kunne tro, at alt var normalt og droppe opfølgning. En kræftpatient kunne få det forkerte kostråd. Og det stopper ikke her – der er også set fejl i AI-svar om mentale lidelser og kvindesygdomme. Det er ikke bare hypotetisk. Vi har set lignende fejl i danske AI-projekter, hvor små unøjagtigheder i data førte til store misforståelser hos brugerne.

Banner

Offentlig tillid: Når teknologien snubler

Hver gang AI’en fejler, mister offentligheden lidt mere tillid. Det er ikke kun Google, der bliver ramt – det smitter af på hele branchen. Folk begynder at tvivle på, om man overhovedet kan stole på digitale sundhedsløsninger. Det er et problem, for AI har faktisk potentiale til at gøre meget godt. Men kun hvis vi kan stole på den. Vi har oplevet, at det tager måneder – nogle gange år – at genopbygge tillid efter en større AI-fejl. Og det kræver mere end bare en pressemeddelelse.

Kommunikation og genopretning: Hvad gør man, når det går galt?

Det er fristende bare at slukke for funktionen og håbe, at stormen driver over. Men det er ikke nok. Virksomheder bør være åbne om fejlene, forklare hvad der gik galt, og hvad de gør for at rette op. Det gælder også for danske aktører. Vi anbefaler, at man har en klar kriseplan – ikke kun for tekniske fejl, men også for kommunikation. Folk vil have ærlige svar, ikke undvigelser.

Det mest fængende og spændende billede, der kan visualisere essensen af denne artikel uden at bruge clichéer eller personfokuserede elementer, er en dokumentaristisk, realistisk scene, hvor en medicinsk receptpligtig kontekst tydeligt illustreres gennem abstrakte elementer. Forestil dig en stor, gennemsigtig glasdør, hvor indersiden er en mosaik af farverige, flydende data-bølger, der spreder sig og kolliderer let mod endevæggen. Disse datamønstre antyder risikoen ved AI-fejl i sundhedsoplysninger, uden at vise mennesker direkte, men i stedet gennem et miljø, der symboliserer datastreaming, usikkerhed og den stille kraft, som teknologien besidder i en hverdag, hvor kritiske beslutninger træffes af komplekse algoritmer. Lyset fra dataene reflekteres dæmpet over en overflade af lægejournaler og digitale skærme, der er tydeligt skrivebeskyttet og uden menneskelige fingeraftryk. Dette billede fanger ikke blot den abstrakte risiko ved AI-fejl, men illustrerer også den sårbarhed, som sundhedsdata implicerer, på en

Politiske og regulatoriske perspektiver: Er der brug for nye regler?

Efter vores mening: Ja. Når AI bruges til sundhedsinformation, bør der være klare regler for, hvad man må, og hvordan man kvalitetssikrer. Det kan være krav om ekstern validering, mærkning af AI-genererede svar eller mulighed for at rapportere fejl direkte. Flere eksperter har peget på, at det nuværende lovgivningsgrundlag ikke er gearet til AI’s kompleksitet. Vi ser allerede, at EU’s AI Act begynder at røre på sig, men der er lang vej igen.

Googles reaktion: Hvad sker der nu?

Google har været relativt fåmælt. De siger, at de “ikke kommenterer på enkelte fjernelser”, men at de arbejder på “generelle forbedringer”. Internt har deres kliniske team gennemgået de kritiserede søgninger og mener, at mange svar faktisk var korrekte og bakkes op af gode kilder. Men det ændrer ikke ved, at AI Overviews nu er fjernet for de mest kritiske sundhedssøgninger. Vi forventer, at Google vil skrue op for kvalitetssikringen – men det er ikke sikkert, det løser det grundlæggende problem.

Hvad kan danske virksomheder lære?

For os i Snilld står én ting klart: Man kan ikke bare stole på, at AI altid rammer plet – især ikke i sundhedssektoren. Danske virksomheder bør:

  • Have en klar kvalitetssikringsproces for AI-svar.
  • Være åbne om fejl og hurtige til at rette dem.
  • Inddrage sundhedsfaglige eksperter løbende – ikke kun ved lancering.
  • Kommunikere ærligt med brugerne, også når det gør ondt.

Vi har selv været med til at udvikle AI-løsninger, hvor vi måtte ændre hele valideringsflowet efter at have opdaget, at en model lavede systematiske fejl på bestemte patientgrupper. Det er ikke sjovt at indrømme, men nødvendigt.

Perspektiv: Hvad nu?

Google-sagen er et wakeup-call. Ikke kun for techgiganter, men for alle der arbejder med AI og sundhed. Det handler ikke om at droppe teknologien, men om at tage ansvar og gøre sig umage. Vi tror stadig på, at AI kan gøre en forskel – men kun hvis vi tør tage fejlene alvorligt og lære af dem. Og så må vi indrømme: Man opdager først forskellen, når man sidder med det i hænderne og ser, hvor hurtigt det kan gå galt.

Kilder:

 

Målgruppens mening om artiklen

Anne Møller, Sundheds-IT projektleder:
Jeg giver artiklen 93. Den rammer plet på de udfordringer, vi oplever i praksis, når AI bruges i sundhedssektoren. Artiklen er konkret, ærlig og tager både de tekniske, etiske og praktiske aspekter alvorligt. Jeg synes især eksemplerne med leverprøver og kostråd til kræftpatienter viser, hvor galt det kan gå, og hvorfor kvalitetssikring ikke er til diskussion. Det er relevant for mit arbejde hver dag.

Jonas Pedersen, Dataansvarlig i pharma:
Jeg giver den 85. Artiklen er aktuel og rammer mange af de bekymringer, vi har om AI og datasikkerhed. Jeg savner dog lidt mere om, hvordan man konkret kan lave bedre validering, og hvordan virksomheder kan samarbejde om det. Men den er meget relevant for alle, der arbejder med sundhedsdata og AI.

Katrine Holm, Digitaliseringskonsulent i regionen:
Mit tal er 90. Jeg synes artiklen er super relevant, især fordi den ikke bare peger fingre ad Google, men også kommer med anbefalinger til danske aktører. Det er præcis den slags refleksion, vi har brug for, når vi skal implementere AI i sundhedsvæsenet. Den balancerer godt mellem kritik og konstruktive forslag.

Mads Jensen, Udvikler af sundhedsapps:
Jeg giver den 80. Den er vigtig og rammer mange af de faldgruber, vi selv har oplevet. Jeg kunne godt have ønsket mig lidt mere teknisk dybde, men den er god til at forklare problemstillingerne for et bredere publikum. Det er fedt, at der bliver sat fokus på ansvar og gennemsigtighed.

Louise Sørensen, Patientforeningsrepræsentant:
Jeg giver den 95. Artiklen sætter ord på de bekymringer, vi hører fra patienter, især om tillid og risiko for fejl. Det er vigtigt, at nogen tør sige, at AI ikke er ufejlbarlig, og at det kan have store konsekvenser for rigtige mennesker. Jeg synes, den rammer hovedet på sømmet.

Gennemsnitlig score: 88,6









*Denne artiklen er skrevet af en redaktion bestående af kunstig intelligenser, der har skrevet artiklen på baggrund af automatiseret research og oplysninger om de seneste teknologi nyheder fra internettet.

Billederne i artiklen er lavet af Gemini 3 Pro Nano Banana 2 Pro fra Google.








Book Din AI-Booster Samtale






– Ingen Tekniske Forudsætninger Påkrævet!

Er du nysgerrig på, hvad generativ AI er og hvordan AI kan løfte din virksomhed? Book en gratis og uforpligtende 30 minutters online samtale med vores AI-eksperter. Du behøver ingen teknisk viden – blot en computer eller telefon med internetforbindelse.

I samtalen kigger vi på dine muligheder og identificerer, hvor AI kan optimere jeres arbejdsprocesser og skabe værdi. Det er helt uden bindinger, og vi tilpasser rådgivningen til lige præcis jeres behov.

Fordele ved samtalen:

  • Samtalen handler om dig og dine behov
  • Indblik i AIs potentiale for din virksomhed
  • Konkrete idéer til effektivisering af dine processer
  • Personlig rådgivning uden teknisk jargon

Det handler om at skabe værdi for dig





    Gør brugeroplevelsen bedre.
    Hvilket firma arbejder du for?