Według ekspertów ds. bezpieczeństwa dzieci drapieżcy wykorzystują sztuczną inteligencję do tworzenia wizerunków dzieci o charakterze jednoznacznie seksualnym, koncentrując się na konkretnych ofiarach. Ci drapieżnicy, aktywni w ciemnej sieci, angażują się w rozmowy, które obejmują tworzenie nowych obrazów w oparciu o istniejące materiały przedstawiające wykorzystywanie seksualne dzieci (CSAM).
AI tworzy nowy CSAM i odzyskuje stary CSAM.
Osoby, które przeżyły, takie jak Megan, która cierpiała na CSAM, wyraziły swój rosnący niepokój w związku z potencjałem sztucznej inteligencji do dalszego wykorzystania ich zdjęć. Megan podkreśla, że manipulacja sztuczną inteligencją może stworzyć fałszywe wrażenia, które łagodzą ból spowodowany przemocą, a nawet sugerują radość z bycia ofiarą przemocy.
Wykorzystanie sztucznej inteligencji umożliwiło tym przestępcom obsesję na punkcie konkretnych dzieci-ofiar (mianowicie „gwiazd”) i tworzenie większej liczby treści z nimi związanych. Ta niepokojąca tendencja wzbudziła obawy wśród osób, które przeżyły CSAM, które obawiają się, że ich zdjęcia mogą zostać zmanipulowane za pomocą sztucznej inteligencji i rozpowszechnione, co może zagrozić ich życiu osobistemu i zawodowemu.
Zwolennicy wzywają do wprowadzenia przepisów, które powstrzymują drapieżniki przed tworzeniem CSAM, wątpią jednak w skuteczność egzekwowania zakazu generowania nowych CSAM teraz, gdy drapieżniki korzystają z usług szyfrowania wiadomości AI.
Reforma kultury jest również konieczna, aby zająć się pierwotnymi przyczynami przemocy i przede wszystkim zapobiegać takim incydentom.
Rola technologii w CSAM generowanym przez sztuczną inteligencję
Rozmowy na czacie w ciemnej sieci WWW ujawniają drapieżną fascynację CSAM generowanym przez sztuczną inteligencję. Przestępcy wyrazili podekscytowanie perspektywą wykorzystania sztucznej inteligencji do tworzenia nowych materiałów w oparciu o znane ofiary.
Dyskusje te sięgały od odtwarzania wizerunków byłych gwiazd dziecięcej porno w określonych sceneriach po cyfrową remastering starych materiałów przedstawiających wykorzystywanie o niskiej jakości. Postępy sztucznej inteligencji zapewniły drapieżnikom łatwy dostęp do narzędzi, które mogą generować coraz bardziej realistyczne obrazy nadużyć.
Drapieżnicy kładą szczególny nacisk na „gwiazdy” w swoich społecznościach internetowych. Podobnie jak gwiazdy Hollywood, ofiary te są klasyfikowane i katalogowane, a ich wizerunki są skrupulatnie manipulowane, aby stworzyć różne pozy lub scenariusze.
Odpowiedzi organów ścigania i wezwania do działania
List Prokuratorów Generalnych do Kongresu USA
W piśmie skierowanym do Kongresu Stanów Zjednoczonych prokurator generalny wezwał członków do interwencji i zbadania szkodliwego wpływu sztucznej inteligencji (AI) na materiały przedstawiające seksualne wykorzystywanie dzieci.
Pilna potrzeba podjęcia środków zapobiegawczych
W czerwcu FBI opublikowało ostrzeżenie, w którym podkreśliło powszechność „deepfakes” – fałszywych treści tworzonych poprzez zmianę niewinnych zdjęć lub filmów w celu ukazywania wyraźnie czynności seksualnych. Drapieżniki często czerpią treści z platform mediów społecznościowych lub innych witryn internetowych, modyfikując je tak, aby były skierowane do ofiar.
FBI otrzymało zgłoszenia od nieletnich i dorosłych, którzy nie wyrazili zgody na zmienianie ich zdjęć i udostępnianie ich w mediach społecznościowych lub witrynach pornograficznych w celu nękania lub wymuszenia.
Narodowa Agencja ds. Przestępczości (NCA) w Wielkiej Brytanii zidentyfikowała aż 830 000 dorosłych, którzy stanowią ryzyko seksualne dla dzieci. Dyrektor generalny krajowego organu ochrony porządku Graeme Biggar podkreślił, że oglądanie tych obrazów, zarówno prawdziwych, jak i wygenerowanych przez sztuczną inteligencję, znacznie zwiększa ryzyko, że przestępcy rozwiną się w wykorzystywanie seksualne dzieci.
Agencja zaobserwowała już hiperrealistyczne obrazy i filmy generowane przez sztuczną inteligencję, które stanowią wyzwanie w identyfikowaniu prawdziwych dzieci potrzebujących ochrony przy jednoczesnej dalszej normalizacji wykorzystywania.