Casa > Scoprire > I predatori infantili sfruttano l'intelligenza artificiale per generare immagini sessuali di "stelle"

I predatori infantili sfruttano l'intelligenza artificiale per generare immagini sessuali di "stelle"

Scritto da
ArticleGPT

Revisionato e verificato dal team HIX.AI

4 minuti di letturaJun 20, 2024
I predatori infantili sfruttano l'intelligenza artificiale per generare immagini sessuali di "stelle"

In poche parole

L’ascesa della tecnologia dell’intelligenza artificiale ha consentito agli autori di reato di prendere di mira specifiche vittime minorenni note come star nella produzione di contenuti più dannosi.

Secondo gli esperti di sicurezza infantile, i predatori di bambini utilizzano l’intelligenza artificiale per creare immagini sessualmente esplicite di bambini, concentrandosi su vittime specifiche. Questi predatori, attivi nel dark web, sono impegnati in conversazioni che implicano la generazione di nuove immagini basate sul materiale esistente sugli abusi sessuali su minori (CSAM).

L'intelligenza artificiale sta creando un nuovo materiale pedopornografico e sta recuperando il vecchio materiale pedofilo.

Sopravvissuti come Megan, che ha sofferto di materiale pedopornografico, hanno espresso la loro crescente ansia per il potenziale dell'intelligenza artificiale di sfruttare ulteriormente le loro immagini. Megan sottolinea che la manipolazione dell’intelligenza artificiale potrebbe creare false impressioni che diminuiscono il dolore causato dall’abuso o addirittura suggeriscono la gioia di subire un abuso.

L'uso dell'intelligenza artificiale ha consentito a questi delinquenti di essere ossessionati da specifiche vittime minorenni (vale a dire le "star") e di produrre più contenuti che li caratterizzano. Questa tendenza inquietante ha sollevato preoccupazioni tra i sopravvissuti al materiale pedopornografico, che temono che le loro immagini possano essere manipolate con l’intelligenza artificiale e diffuse, mettendo potenzialmente a rischio la loro vita personale e professionale.

I sostenitori stanno sollecitando una legislazione per impedire ai predatori di creare materiale pedopornografico, tuttavia dubitano dell'efficienza di applicare il divieto di generare nuovi materiali pedopornografici ora che i predatori utilizzano i servizi di messaggistica crittografata dell'intelligenza artificiale.

È inoltre necessaria una riforma culturale per affrontare le cause profonde degli abusi e prevenire in primo luogo tali incidenti.

Il ruolo della tecnologia nel materiale CSAM generato dall'intelligenza artificiale

Le conversazioni nelle chat room del dark web rivelano il fascino predatorio del materiale pedopornografico generato dall'intelligenza artificiale. I delinquenti hanno espresso entusiasmo per la prospettiva di utilizzare l’intelligenza artificiale per creare nuovo materiale basato su vittime familiari.

Queste discussioni spaziavano dalla ricreazione di immagini di ex star della pornografia infantile in contesti specifici alla rimasterizzazione digitale di materiale abusivo vecchio e di bassa qualità. I progressi dell’intelligenza artificiale hanno fornito ai predatori un facile accesso a strumenti in grado di generare immagini di abusi sempre più realistiche.

I predatori pongono un'enfasi particolare sulle vittime "star" all'interno delle loro comunità online. Simili alle celebrità di Hollywood, queste vittime vengono classificate e catalogate e le loro immagini vengono meticolosamente manipolate per creare pose o scenari diversi.

Risposte delle forze dell'ordine e inviti all'azione

Lettera al Congresso degli Stati Uniti da parte dei procuratori generali

In una lettera indirizzata al Congresso degli Stati Uniti, i procuratori generali hanno esortato i membri a intervenire e studiare gli impatti dannosi dell’intelligenza artificiale (AI) sul materiale pedopornografico.

Urgenza di misure preventive

A giugno, l’FBI ha diffuso un avviso pubblico sottolineando la prevalenza dei “deepfakes” – contenuti falsi realizzati alterando immagini o video innocenti per mostrare attività sessuali esplicite. I predatori spesso ottengono contenuti da piattaforme di social media o altri siti Web online, alterandoli per prendere di mira le vittime.

L'FBI ha ricevuto segnalazioni di minori e adulti che non hanno acconsentito all'alterazione e alla condivisione delle loro immagini sui social media o su siti Web pornografici a scopo di molestie o estorsioni.

La National Crime Agency (NCA) nel Regno Unito ha identificato fino a 830.000 adulti che rappresentano un rischio sessuale per i bambini. Il direttore generale della NCA, Graeme Biggar, ha sottolineato che la visione di queste immagini, siano esse reali o generate dall’intelligenza artificiale, aumenta significativamente il rischio che gli autori di reato arrivino ad abusare sessualmente di bambini.

L’agenzia ha già osservato immagini e video iperrealistici generati dall’intelligenza artificiale, che pongono sfide nell’identificare i bambini reali bisognosi di protezione normalizzando ulteriormente gli abusi.

Basato su 3 fonti di ricerca

3 fonti

Child predators are using AI to create sexual images of their favorite ‘stars’: ‘My body will never be mine again’

Predators active on the dark web are increasingly using artificial intelligence to create sexually explicit images of children, fixating especially on “star” victims, child safety experts warn.

Predators are using AI to sexually exploit children, FBI says. Here’s what we know

As the use of artificial intelligence grows, officials across the world are expressing their concerns about its use in the creation of child sex abuse material.

Predators using AI to exploit children

Sexual predators are using a new tool to exploit children: AI (artificial intelligence) image generators.

Su questa pagina

  • L'intelligenza artificiale sta creando un nuovo materiale pedopornografico e sta recuperando il vecchio materiale pedofilo.
  • Il ruolo della tecnologia nel materiale CSAM generato dall'intelligenza artificiale
  • Risposte delle forze dell'ordine e inviti all'azione