Hjem > Opdage > Child Predators udnytter AI til at generere seksuelle billeder af 'Stars'

Child Predators udnytter AI til at generere seksuelle billeder af 'Stars'

Skrevet af
ArticleGPT

Gennemgået og faktatjekket af HIX.AI-teamet

4 min læstJun 20, 2024
Child Predators udnytter AI til at generere seksuelle billeder af 'Stars'

I en nøddeskal

Fremkomsten af AI-teknologi har gjort det muligt for lovovertrædere at målrette mod specifikke børneofre kendt som stjerner i produktionen af mere skadeligt indhold.

Børnerovdyr bruger kunstig intelligens til at skabe seksuelt eksplicitte billeder af børn med fokus på specifikke ofre, ifølge børnesikkerhedseksperter. Disse rovdyr, aktive på det mørke web, deltager i samtaler, der involverer generering af nye billeder baseret på eksisterende materiale om seksuelt misbrug af børn (CSAM).

AI skaber ny CSAM og genopretter gammel CSAM.

Overlevende som Megan, der har lidt af CSAM, har udtrykt deres voksende angst over AI's potentiale til yderligere at udnytte deres billeder. Megan understreger, at AI-manipulation kan skabe falske indtryk, der mindsker smerten forårsaget af misbrug eller endda antyder glæden ved at blive misbrugt.

Brugen af kunstig intelligens har givet disse lovovertrædere mulighed for at besætte bestemte børneofre (nemlig "stjernerne") og producere mere indhold med dem. Denne foruroligende tendens har givet anledning til bekymring blandt overlevende fra CSAM, som frygter, at deres billeder kan blive manipuleret med AI og cirkuleret, hvilket potentielt truer deres personlige og professionelle liv.

Fortalere opfordrer til lovgivning for at stoppe rovdyr i at lave CSAM, men de tvivler på effektiviteten af at håndhæve forbuddet mod at generere nye CSAM, nu hvor rovdyr bruger AI's krypterede meddelelsestjenester.

En kulturreform er også nødvendig for at tackle de grundlæggende årsager til misbrug og forhindre sådanne hændelser i første omgang.

Teknologiens rolle i AI-genereret CSAM

Mørke chatrumssamtaler på nettet afslører den rovvilde fascination af AI-genereret CSAM. Forbrydere udtrykte begejstring over udsigten til at bruge kunstig intelligens til at skabe nyt materiale baseret på kendte ofre.

Disse diskussioner strakte sig fra at genskabe billeder af tidligere børnepornografistjerner i specifikke omgivelser til digital remastering af gammelt misbrugsmateriale af lav kvalitet. AI's fremskridt har givet rovdyr nem adgang til værktøjer, der kan generere stadig mere realistiske misbrugsbilleder.

Rovdyr lægger særlig vægt på "stjerne"-ofre i deres online-fællesskaber. I lighed med Hollywood-berømtheder er disse ofre rangeret og katalogiseret, og deres billeder er omhyggeligt manipuleret til at skabe forskellige positurer eller scenarier.

Retshåndhævelsesreaktioner og opfordringer til handling

Brev til den amerikanske kongres fra Attorneys General

I et brev til den amerikanske kongres opfordrede generaladvokaten medlemmerne til at gribe ind og undersøge de skadelige virkninger af kunstig intelligens (AI) på materiale om seksuelt misbrug af børn.

Det haster med forebyggende foranstaltninger

I juni udsendte FBI en offentlig alarm, der understregede udbredelsen af "deepfakes" - falsk indhold lavet ved at ændre uskyldige billeder eller videoer for at vise eksplicitte seksuelle aktiviteter. Rovdyr henter ofte indhold fra sociale medieplatforme eller andre onlinewebsteder, og ændrer dem til at blive målrettet mod ofre.

FBI har modtaget rapporter fra mindreårige og voksne, som ikke har givet samtykke til, at deres billeder blev ændret og delt på sociale medier eller pornografiske websteder for chikane eller afpresning.

National Crime Agency (NCA) i Storbritannien har identificeret op til 830.000 voksne, der udgør en seksuel risiko for børn. NCA's generaldirektør Graeme Biggar understregede, at visningen af disse billeder, uanset om de er ægte eller AI-genererede, øger risikoen for, at lovovertrædere udvikler sig til seksuelt misbrug af børn.

Agenturet har allerede observeret hyperrealistiske AI-genererede billeder og videoer, som udgør udfordringer med at identificere rigtige børn med behov for beskyttelse og samtidig normalisere misbrug yderligere.

Baseret på 3 søgekilder

3 kilder

Child predators are using AI to create sexual images of their favorite ‘stars’: ‘My body will never be mine again’

Predators active on the dark web are increasingly using artificial intelligence to create sexually explicit images of children, fixating especially on “star” victims, child safety experts warn.

Predators are using AI to sexually exploit children, FBI says. Here’s what we know

As the use of artificial intelligence grows, officials across the world are expressing their concerns about its use in the creation of child sex abuse material.

Predators using AI to exploit children

Sexual predators are using a new tool to exploit children: AI (artificial intelligence) image generators.

På denne side

  • AI skaber ny CSAM og genopretter gammel CSAM.
  • Teknologiens rolle i AI-genereret CSAM
  • Retshåndhævelsesreaktioner og opfordringer til handling