OpenAI lancerede tirsdag et såkaldt Child Safety Blueprint, som ifølge selskabet skal styrke amerikansk børnebeskyttelse over for AI-understøttet udnyttelse. Planen er rettet mod hurtigere opdagelse, bedre indrapportering og mere effektiv efterforskning af sager, hvor AI indgår i seksuel udnyttelse af børn.
Det er mere end en mindre opdatering. Udmeldingen kommer på et tidspunkt, hvor presset er vokset, og hvor AI ikke længere kun bliver omtalt som et neutralt værktøj, men også som noget der kan forstærke misbrug.
Stigningen er konkret
TechCrunch henviser til Internet Watch Foundation, som registrerede mere end 8.000 rapporter om AI-genereret materiale med seksuelle overgreb mod børn i første halvdel af 2025. Det var ifølge samme kilde en stigning på 14 procent fra året før.
Artiklen nævner også to former for misbrug. Dels falske eksplicitte billeder af børn skabt med AI og brugt til økonomisk sextortion. Dels overbevisende grooming-beskeder genereret med AI. Det gør sagen mindre teoretisk. Mere konkret, og ærlig talt også sværere at tale sig uden om.


Planen lander midt i voksende kritik
Lanceringen kommer samtidig med stigende kritik fra politikere, undervisere og folk, der arbejder med børnesikkerhed, skriver TechCrunch. I den del af debatten bliver AI i stigende grad set som en risikoforstærker for børn og unge.
Det er også derfor timingen betyder noget. Når en sikkerhedsplan lander nu, er det svært ikke at læse den som et svar på et pres, der er blevet for stort til at ignorere. Om man kalder det ansvar eller skadeskontrol ændrer ikke ved, at OpenAI tydeligvis har brug for at vise handling.
Retssagerne ligger i baggrunden
TechCrunch omtaler også sager anlagt i Californien i november af Social Media Victims Law Center og Tech Justice Law Project. Ifølge artiklen hævder de i syv søgsmål ved delstatsdomstole, at OpenAI frigav GPT-4o, før produktet var klar.
Artiklen skriver videre, at sagsøgerne mener, at produktets psykologisk manipulerende karakter bidrog til dødsfald ved selvmord og assisteret selvmord. Den nævner fire personer, der døde ved selvmord, og tre andre, som ifølge søgsmålene oplevede alvorlige, livstruende vrangforestillinger efter længere chatbotforløb. Det er påstande i retssager, ikke fastslåede forhold. Men de vejer tungt, når OpenAI samtidig forsøger at sætte en sikkerhedsretning.

Tre spor i blueprintet
Ifølge TechCrunch fokuserer blueprintet på tre ting. OpenAI vil have opdateret lovgivning, så AI-genereret overgrebsmateriale dækkes tydeligere. Selskabet peger også på bedre rapporteringsmekanismer til retshåndhævelse og på forebyggende sikkerhedsforanstaltninger direkte i AI-systemer.
Oversat til praksis peger det på noget ret jordnært: hvordan mistænkeligt indhold opdages, hvordan sager løftes videre, og hvor meget sikkerhed der faktisk er bygget ind i produktet fra start. Ikke bagefter. Det lyder banalt, men det er tit dér forskellen ligger.


Ikke kun et OpenAI-problem
Sagen rækker videre end ét selskab og én amerikansk debat. For virksomheder, der bygger oven på generativ AI, er forventningen ved at flytte sig. Hvis man arbejder med kundechat, interne assistenter, dokumentværktøjer eller billedgenerering, er det sværere at slippe afsted med at behandle guardrails som noget, man lægger på til sidst.
Vi ser stadig mange projekter, hvor sikkerhed bliver placeret som et senere trin. Først virker produktet, så ser man på begrænsningerne. Den rækkefølge ser mere og mere dyr ud. Ikke bare juridisk, også for drift og omdømme.
Det er en plan, ikke et bevis
OpenAI har altså lagt en plan frem på et område, hvor behovet er svært at afvise. Det i sig selv er nyheden. Resten afhænger af, om arbejdet kan mærkes uden for policy-dokumenterne.
Det afgørende er ikke, at blueprintet findes. Det afgørende er, om det fører til hurtigere indgriben og færre tilfælde, hvor skaden allerede er sket, før nogen reagerer. Det finder man først ud af senere.