Hjem > Oppdage > Barnerovdyr utnytter AI for å generere seksuelle bilder av "stjerner"

Barnerovdyr utnytter AI for å generere seksuelle bilder av "stjerner"

Skrevet av
ArticleGPT

Gjennomgått og faktasjekket av HIX.AI-teamet

4 min lesingJun 20, 2024
Barnerovdyr utnytter AI for å generere seksuelle bilder av "stjerner"

I et nøtteskall

Fremveksten av AI-teknologi har gjort det mulig for lovbrytere å målrette mot spesifikke barneofre kjent som stjerner i produksjonen av mer skadelig innhold.

Barnerovdyr bruker kunstig intelligens for å lage seksuelt eksplisitte bilder av barn, med fokus på spesifikke ofre, ifølge barnesikkerhetseksperter. Disse rovdyrene, aktive på det mørke nettet, deltar i samtaler som involverer å generere nye bilder basert på eksisterende materiale om seksuelle overgrep mot barn (CSAM).

AI lager ny CSAM og gjenoppretter gammel CSAM.

Overlevende som Megan, som har lidd av CSAM, har uttrykt sin økende angst for AIs potensial til å utnytte bildene deres ytterligere. Megan understreker at AI-manipulasjon kan skape falske inntrykk som reduserer smerten forårsaket av overgrep eller til og med antyder gleden ved å bli misbrukt.

Bruken av AI har gitt disse lovbryterne makt til å besette spesifikke barneofre (nemlig "stjernene") og produsere mer innhold med dem. Denne urovekkende trenden har skapt bekymringer blant overlevende fra CSAM, som frykter at bildene deres kan bli manipulert med AI og sirkulert, noe som potensielt kan true deres personlige og profesjonelle liv.

Talsmenn oppfordrer lovgivning for å stoppe rovdyr fra å lage CSAM, men de tviler på effektiviteten av å håndheve forbudet mot å generere nye CSAM nå som rovdyr bruker AIs krypterte meldingstjenester.

Kulturreform er også nødvendig for å takle de grunnleggende årsakene til overgrep og forhindre slike hendelser i utgangspunktet.

Teknologiens rolle i AI-generert CSAM

Mørke nettchatteromsamtaler avslører den rovvilte fascinasjonen med AI-generert CSAM. Lovbrytere uttrykte begeistring over muligheten til å bruke kunstig intelligens til å lage nytt materiale basert på kjente ofre.

Disse diskusjonene varierte fra å gjenskape bilder av tidligere barnepornografistjerner i bestemte omgivelser til digital remastering av gammelt misbruksmateriale av lav kvalitet. AIs fremskritt har gitt rovdyr enkel tilgang til verktøy som kan generere stadig mer realistiske misbruksbilder.

Rovdyr legger særlig vekt på "stjerne"-ofre i deres nettsamfunn. I likhet med Hollywood-kjendiser er disse ofrene rangert og katalogisert, og bildene deres er omhyggelig manipulert for å lage forskjellige positurer eller scenarier.

Rettshåndhevelsesresponser og oppfordringer til handling

Brev til den amerikanske kongressen fra riksadvokatene

I et brev adressert til den amerikanske kongressen oppfordret generaladvokatene medlemmene til å gripe inn og studere de skadelige virkningene av kunstig intelligens (AI) på materiale som overgrep mot barn.

Haster for forebyggende tiltak

I juni slapp FBI et offentlig varsel som understreker utbredelsen av "deepfakes" - falskt innhold laget ved å endre uskyldige bilder eller videoer for å vise eksplisitte seksuelle aktiviteter. Rovdyr henter ofte innhold fra sosiale medieplattformer eller andre nettsider, og endrer dem til å målrette mot ofre.

FBI har mottatt rapporter fra mindreårige og voksne som ikke samtykket i at bildene deres ble endret og delt på sosiale medier eller pornografiske nettsteder for trakassering eller utpressing.

National Crime Agency (NCA) i Storbritannia har identifisert opptil 830 000 voksne som utgjør en seksuell risiko for barn. NCAs generaldirektør Graeme Biggar understreket at visning av disse bildene, enten de er ekte eller AI-genererte, øker risikoen for at lovbrytere går videre til seksuelle overgrep mot barn.

Byrået har allerede observert hyperrealistiske AI-genererte bilder og videoer, som utgjør utfordringer med å identifisere ekte barn som trenger beskyttelse og samtidig normalisere overgrep.

Basert på 3 søkekilder

3 kilder

Child predators are using AI to create sexual images of their favorite ‘stars’: ‘My body will never be mine again’

Predators active on the dark web are increasingly using artificial intelligence to create sexually explicit images of children, fixating especially on “star” victims, child safety experts warn.

Predators are using AI to sexually exploit children, FBI says. Here’s what we know

As the use of artificial intelligence grows, officials across the world are expressing their concerns about its use in the creation of child sex abuse material.

Predators using AI to exploit children

Sexual predators are using a new tool to exploit children: AI (artificial intelligence) image generators.

På denne siden

  • AI lager ny CSAM og gjenoppretter gammel CSAM.
  • Teknologiens rolle i AI-generert CSAM
  • Rettshåndhevelsesresponser og oppfordringer til handling