Børnerovdyr bruger kunstig intelligens til at skabe seksuelt eksplicitte billeder af børn med fokus på specifikke ofre, ifølge børnesikkerhedseksperter. Disse rovdyr, aktive på det mørke web, deltager i samtaler, der involverer generering af nye billeder baseret på eksisterende materiale om seksuelt misbrug af børn (CSAM).
AI skaber ny CSAM og genopretter gammel CSAM.
Overlevende som Megan, der har lidt af CSAM, har udtrykt deres voksende angst over AI's potentiale til yderligere at udnytte deres billeder. Megan understreger, at AI-manipulation kan skabe falske indtryk, der mindsker smerten forårsaget af misbrug eller endda antyder glæden ved at blive misbrugt.
Brugen af kunstig intelligens har givet disse lovovertrædere mulighed for at besætte bestemte børneofre (nemlig "stjernerne") og producere mere indhold med dem. Denne foruroligende tendens har givet anledning til bekymring blandt overlevende fra CSAM, som frygter, at deres billeder kan blive manipuleret med AI og cirkuleret, hvilket potentielt truer deres personlige og professionelle liv.
Fortalere opfordrer til lovgivning for at stoppe rovdyr i at lave CSAM, men de tvivler på effektiviteten af at håndhæve forbuddet mod at generere nye CSAM, nu hvor rovdyr bruger AI's krypterede meddelelsestjenester.
En kulturreform er også nødvendig for at tackle de grundlæggende årsager til misbrug og forhindre sådanne hændelser i første omgang.
Teknologiens rolle i AI-genereret CSAM
Mørke chatrumssamtaler på nettet afslører den rovvilde fascination af AI-genereret CSAM. Forbrydere udtrykte begejstring over udsigten til at bruge kunstig intelligens til at skabe nyt materiale baseret på kendte ofre.
Disse diskussioner strakte sig fra at genskabe billeder af tidligere børnepornografistjerner i specifikke omgivelser til digital remastering af gammelt misbrugsmateriale af lav kvalitet. AI's fremskridt har givet rovdyr nem adgang til værktøjer, der kan generere stadig mere realistiske misbrugsbilleder.
Rovdyr lægger særlig vægt på "stjerne"-ofre i deres online-fællesskaber. I lighed med Hollywood-berømtheder er disse ofre rangeret og katalogiseret, og deres billeder er omhyggeligt manipuleret til at skabe forskellige positurer eller scenarier.
Retshåndhævelsesreaktioner og opfordringer til handling
Brev til den amerikanske kongres fra Attorneys General
I et brev til den amerikanske kongres opfordrede generaladvokaten medlemmerne til at gribe ind og undersøge de skadelige virkninger af kunstig intelligens (AI) på materiale om seksuelt misbrug af børn.
Det haster med forebyggende foranstaltninger
I juni udsendte FBI en offentlig alarm, der understregede udbredelsen af "deepfakes" - falsk indhold lavet ved at ændre uskyldige billeder eller videoer for at vise eksplicitte seksuelle aktiviteter. Rovdyr henter ofte indhold fra sociale medieplatforme eller andre onlinewebsteder, og ændrer dem til at blive målrettet mod ofre.
FBI har modtaget rapporter fra mindreårige og voksne, som ikke har givet samtykke til, at deres billeder blev ændret og delt på sociale medier eller pornografiske websteder for chikane eller afpresning.
National Crime Agency (NCA) i Storbritannien har identificeret op til 830.000 voksne, der udgør en seksuel risiko for børn. NCA's generaldirektør Graeme Biggar understregede, at visningen af disse billeder, uanset om de er ægte eller AI-genererede, øger risikoen for, at lovovertrædere udvikler sig til seksuelt misbrug af børn.
Agenturet har allerede observeret hyperrealistiske AI-genererede billeder og videoer, som udgør udfordringer med at identificere rigtige børn med behov for beskyttelse og samtidig normalisere misbrug yderligere.