Snilld

OpenAI lancerer sikkerhedsplan mens presset vokser

OpenAI har fremlagt et nyt Child Safety Blueprint, som ifølge selskabet skal styrke opdagelse, rapportering og efterforskning af AI-understøttet udnyttelse af børn. Udmeldingen kommer samtidig med voksende kritik af AI-systemers mulige skadevirkninger for børn og unge.

8. april 2026 Peter Munkholm

OpenAI lancerede tirsdag et såkaldt Child Safety Blueprint, som ifølge selskabet skal styrke amerikansk børnebeskyttelse over for AI-understøttet udnyttelse. Planen er rettet mod hurtigere opdagelse, bedre indrapportering og mere effektiv efterforskning af sager, hvor AI indgår i seksuel udnyttelse af børn.

Det er mere end en mindre opdatering. Udmeldingen kommer på et tidspunkt, hvor presset er vokset, og hvor AI ikke længere kun bliver omtalt som et neutralt værktøj, men også som noget der kan forstærke misbrug.

Stigningen er konkret

TechCrunch henviser til Internet Watch Foundation, som registrerede mere end 8.000 rapporter om AI-genereret materiale med seksuelle overgreb mod børn i første halvdel af 2025. Det var ifølge samme kilde en stigning på 14 procent fra året før.

Artiklen nævner også to former for misbrug. Dels falske eksplicitte billeder af børn skabt med AI og brugt til økonomisk sextortion. Dels overbevisende grooming-beskeder genereret med AI. Det gør sagen mindre teoretisk. Mere konkret, og ærlig talt også sværere at tale sig uden om.

Banner
En analytiker arbejder koncentreret ved flere skærme i et professionelt kontormiljø.

Planen lander midt i voksende kritik

Lanceringen kommer samtidig med stigende kritik fra politikere, undervisere og folk, der arbejder med børnesikkerhed, skriver TechCrunch. I den del af debatten bliver AI i stigende grad set som en risikoforstærker for børn og unge.

Det er også derfor timingen betyder noget. Når en sikkerhedsplan lander nu, er det svært ikke at læse den som et svar på et pres, der er blevet for stort til at ignorere. Om man kalder det ansvar eller skadeskontrol ændrer ikke ved, at OpenAI tydeligvis har brug for at vise handling.

Retssagerne ligger i baggrunden

TechCrunch omtaler også sager anlagt i Californien i november af Social Media Victims Law Center og Tech Justice Law Project. Ifølge artiklen hævder de i syv søgsmål ved delstatsdomstole, at OpenAI frigav GPT-4o, før produktet var klar.

Artiklen skriver videre, at sagsøgerne mener, at produktets psykologisk manipulerende karakter bidrog til dødsfald ved selvmord og assisteret selvmord. Den nævner fire personer, der døde ved selvmord, og tre andre, som ifølge søgsmålene oplevede alvorlige, livstruende vrangforestillinger efter længere chatbotforløb. Det er påstande i retssager, ikke fastslåede forhold. Men de vejer tungt, når OpenAI samtidig forsøger at sætte en sikkerhedsretning.

Banner

Tre spor i blueprintet

Ifølge TechCrunch fokuserer blueprintet på tre ting. OpenAI vil have opdateret lovgivning, så AI-genereret overgrebsmateriale dækkes tydeligere. Selskabet peger også på bedre rapporteringsmekanismer til retshåndhævelse og på forebyggende sikkerhedsforanstaltninger direkte i AI-systemer.

Oversat til praksis peger det på noget ret jordnært: hvordan mistænkeligt indhold opdages, hvordan sager løftes videre, og hvor meget sikkerhed der faktisk er bygget ind i produktet fra start. Ikke bagefter. Det lyder banalt, men det er tit dér forskellen ligger.

Hænder peger på dokumenter og en computer under et møde om compliance og produktansvar.
Et produktteam gennemgår sikkerhedsprocesser omkring et bord med computere og dokumenter.

Ikke kun et OpenAI-problem

Sagen rækker videre end ét selskab og én amerikansk debat. For virksomheder, der bygger oven på generativ AI, er forventningen ved at flytte sig. Hvis man arbejder med kundechat, interne assistenter, dokumentværktøjer eller billedgenerering, er det sværere at slippe afsted med at behandle guardrails som noget, man lægger på til sidst.

Vi ser stadig mange projekter, hvor sikkerhed bliver placeret som et senere trin. Først virker produktet, så ser man på begrænsningerne. Den rækkefølge ser mere og mere dyr ud. Ikke bare juridisk, også for drift og omdømme.

Det er en plan, ikke et bevis

OpenAI har altså lagt en plan frem på et område, hvor behovet er svært at afvise. Det i sig selv er nyheden. Resten afhænger af, om arbejdet kan mærkes uden for policy-dokumenterne.

Det afgørende er ikke, at blueprintet findes. Det afgørende er, om det fører til hurtigere indgriben og færre tilfælde, hvor skaden allerede er sket, før nogen reagerer. Det finder man først ud af senere.

Kilder

    Gør brugeroplevelsen bedre.
    Hvilket firma arbejder du for?