Deepfake-truslen vokser – og investorerne reagerer
Deepfakes og AI-genereret svindel er ikke længere kun noget, vi taler om i fremtiden. Med investeringer fra Google, Sony Innovation Fund og Okta har Resemble AI netop rejst 13 millioner dollars for at styrke kampen mod digital manipulation. Det sker samtidig med, at både virksomheder og myndigheder oplever stigende pres for at kunne verificere ægtheden af digitalt indhold. Ifølge flere kilder har generativ AI allerede bidraget til svindel for over 1,5 milliarder dollars i 2025 alene, og analytikere vurderer, at tallet kan stige til 40 milliarder dollars i USA inden 2027, hvis udviklingen fortsætter ufortrødent.

Konkrete eksempler på svindel og behovet for realtids-detektion
Seneste eksempler fra Singapore viser, hvor hurtigt truslen udvikler sig. Her blev 13 borgere snydt for mere end 360.000 SGD via deepfake-opkald, hvor svindlere udgav sig for at være både teleselskab og myndighed. De brugte avanceret stemmeforfalskning, manipulerede opkaldsnumre og udnyttede folks tillid til kendte brands. For danske banker, kommuner og forsyningsselskaber er det ikke længere nok at stole på traditionelle sikkerhedsløsninger. Realtids-detektion af deepfakes bliver afgørende for at beskytte borgernes og kundernes tillid – og for at undgå, at man først opdager svindlen, når skaden er sket.

Hvordan virker de nye deepfake-detekteringsværktøjer?
Resemble AI’s platform tilbyder blandt andet modellen DETECT-3B Omni, der kan identificere deepfakes i både lyd, billede og tekst med en rapporteret nøjagtighed på 98 % på tværs af 38 sprog. Værktøjet kan integreres direkte i eksisterende IT-infrastruktur og bruges i realtid – for eksempel til at validere opkald til kundeservice eller sikre, at officielle videomøder ikke manipuleres. Ifølge offentlige benchmarks på Hugging Face ligger modellen blandt de stærkeste på markedet, både når det gælder billede- og talegenkendelse. Resemble Intelligence-platformen bygger ovenpå med forklaringer og audit logs, så man kan dokumentere, hvorfor et indhold er markeret som manipuleret.
Implementering i offentlige myndigheder og krav til leverandører
For offentlige institutioner er det afgørende, at løsningerne kan tilpasses eksisterende systemer uden at skabe unødvendig administration. Det stiller krav til leverandører om åbne API’er, dokumenteret nøjagtighed og mulighed for integration med nuværende sikkerhedsplatforme. Samtidig skal løsningerne leve op til GDPR og andre databeskyttelseskrav – og det kræver, at både IT, jura og forretning er med ombord fra start.

Finanssektoren: Fra hype til konkret værdi
Banker og finansielle institutioner efterspørger ikke kun teknologi, men også dokumenterede cases og ROI. Erfaringer fra udlandet viser, at integration af deepfake-detektion kan reducere økonomisk kriminalitet markant, især når løsningen kobles direkte til eksisterende anti-fraud systemer. Det kræver dog investering i både teknologi og kompetenceudvikling – og en erkendelse af, at truslen ikke forsvinder af sig selv.
Telebranchen: Tryghed for kunderne i fokus
For teleselskaber handler det om at beskytte kunderne mod svindelopkald og falske beskeder. Deepfake-detektion kan indgå som et led i kundeservice, hvor opkald automatisk screenes for manipulation. Samtidig åbner teknologien for nye muligheder for samarbejde mellem teleselskaber, myndigheder og andre aktører om at bekæmpe svindel på tværs af sektorer.
Offentlige udbud og lovgivningsmæssige barrierer
Statslige og kommunale indkøb af deepfake-detekteringsløsninger kræver fokus på både databeskyttelse og dokumentation af teknologiens begrænsninger. Det er vigtigt at stille krav om transparens, audit logs og mulighed for ekstern revision, så løsningen kan indgå i compliance-arbejdet uden at skabe nye risici. Her er det afgørende, at leverandører kan dokumentere både styrker og svagheder ved deres modeller.

Integration i eksisterende sikkerheds- og compliance-setup
For større virksomheder er det afgørende, at deepfake-detektion kan indgå i det samlede sikkerhedssetup. Det kræver, at løsningen kan integreres med SIEM-systemer, identity management og eksisterende compliance-værktøjer. Pilotprojekter anbefales som første skridt, hvor erfaringer kan opsamles og bruges til at skalere løsningen.

Konkrete anbefalinger til opstart og implementering
- Start med et pilotprojekt i et afgrænset forretningsområde
- Vælg en leverandør med dokumenteret nøjagtighed og åbne integrationsmuligheder
- Involver både IT, compliance og forretning i projektet
- Sørg for løbende kompetenceudvikling og awareness-træning
Begrænsninger og risici – et kritisk blik
Selvom teknologien lover meget, er der stadig udfordringer. Falsk positive og negative kan ikke undgås, og løsningerne kræver løbende opdatering for at følge med udviklingen i generativ AI. Det er vigtigt at have beredskabsplaner for håndtering af fejl og at sikre, at teknologien ikke skaber falsk tryghed. Ingen løsning er perfekt, og det er afgørende at forstå både muligheder og begrænsninger.
ROI og forretningsværdi
Investering i deepfake-detektion skal kunne måles på både reduceret svindel, lavere cyberforsikringspræmier og øget tillid blandt kunder og borgere. Erfaringer fra udlandet viser, at virksomheder uden sådanne værktøjer risikerer højere forsikringspræmier og begrænset dækning. Det kan altså hurtigt blive dyrt at lade stå til.
Fremtiden: Mod standardkrav og bred adoption
Flere eksperter forventer, at realtids-detektion af deepfakes bliver standard for officielle kommunikationskanaler – især i det offentlige. Det vil skabe nye krav til både leverandører og organisationer, men også åbne for nye samarbejder og innovationsmuligheder. Udviklingen peger på, at dem, der er tidligt ude, får et forspring – både teknisk og forretningsmæssigt.
Snillds perspektiv: Praktisk hjælp til implementering
Hos Snilld hjælper vi organisationer med at vurdere markedets løsninger, designe pilotprojekter og sikre, at deepfake-detektion bliver en integreret del af sikkerheds- og compliance-arbejdet. Vi rådgiver om både tekniske, organisatoriske og juridiske aspekter, så I kan navigere sikkert i en ny virkelighed med generativ AI. Vores erfaring er, at tværfaglighed og løbende opkvalificering er nøglen til succes.
Konklusion: Fra hype til handling
Deepfake-detektion er ikke længere kun et buzzword. Med de nyeste investeringer og teknologiske fremskridt er det nu muligt for danske organisationer at tage konkrete skridt mod øget sikkerhed og tillid. Det kræver dog både kritisk blik, strategisk planlægning og praktisk erfaring – og her står vi i Snilld klar til at hjælpe, så I kan komme sikkert fra hype til handling.
Kilder:
- https://www.artificialintelligence-news.com/news/google-sony-and-okta-back-resemble-ai-push-into-deepfake-detection/
- https://www.resemble.ai/wp-content/uploads/2025/04/ResembleAI-Q1-Deepfake-Threats.pdf
- https://www.cnbc.com/2025/05/12/google-launches-ai-startup-fund-offering-access-to-new-models.html
- https://www.sonyinnovationfund.com/
- https://www.okta.com/
- https://www.sphericalinsights.com/blogs/top-20-companies-powering-the-future-of-deepfake-detection-2024-2035-market-growth-demand-and-statistics
Målgruppens mening om artiklen
Henrik Madsen, IT-sikkerhedschef i større dansk kommune: Jeg giver artiklen 85 ud af 100. Den rammer plet på de udfordringer, vi står med i det offentlige, især omkring integration, compliance og behovet for dokumentation. Jeg savner dog lidt flere konkrete danske cases og mere om, hvordan vi håndterer tværgående samarbejde på tværs af myndigheder.
Lise Holm, Compliance Officer i storbank: Jeg giver den 80. Artiklen er relevant og dækker både tekniske og forretningsmæssige aspekter, som vi faktisk diskuterer internt. Jeg kunne dog godt have brugt flere detaljer om ROI og om, hvordan deepfake-detektion påvirker vores risikoprofil og forsikringsforhold i praksis.
Anders Friis, Head of IT Operations, televirksomhed: Jeg giver den 90. Det er sjældent, jeg ser en artikel, der så præcist rammer vores sektor og de udfordringer, vi har med svindelopkald. Jeg synes dog, at der mangler lidt om, hvordan man håndterer samarbejdet mellem teleselskaber og myndigheder i praksis, men ellers virkelig brugbar læsning.
Katrine Jørgensen, Digitaliseringskonsulent i region: Jeg giver den 75. Artiklen er aktuel og relevant, men den er lidt lang og kunne godt have været mere fokuseret på konkrete implementeringseksempler i det offentlige. Jeg savner også lidt mere om, hvordan vi kan sikre borgernes rettigheder i processen.
Michael Petersen, IT-arkitekt i energiselskab: Jeg giver den 78. Den rammer mange af de tekniske krav, vi har til integration og compliance, men jeg synes, der mangler en mere kritisk vurdering af teknologiens begrænsninger og potentielle faldgruber, især i forhold til falsk tryghed og løbende vedligehold.
*Denne artiklen er skrevet af en redaktion bestående af kunstig intelligenser, der har skrevet artiklen på baggrund af automatiseret research og oplysninger om de seneste teknologi nyheder fra internettet.
Billederne i artiklen er lavet af FLUX.1.1 Pro fra Black Forest Labs.
Book Din AI-Booster Samtale
– Ingen Tekniske Forudsætninger Påkrævet!
Er du nysgerrig på, hvad generativ AI er og hvordan AI kan løfte din virksomhed? Book en gratis og uforpligtende 30 minutters online samtale med vores AI-eksperter. Du behøver ingen teknisk viden – blot en computer eller telefon med internetforbindelse.
I samtalen kigger vi på dine muligheder og identificerer, hvor AI kan optimere jeres arbejdsprocesser og skabe værdi. Det er helt uden bindinger, og vi tilpasser rådgivningen til lige præcis jeres behov.
Fordele ved samtalen:
- Samtalen handler om dig og dine behov
- Indblik i AIs potentiale for din virksomhed
- Konkrete idéer til effektivisering af dine processer
- Personlig rådgivning uden teknisk jargon
Det handler om at skabe værdi for dig