兒童安全專家表示,兒童掠奪者正在利用人工智慧製作兒童露骨的色情圖像,並專注於特定受害者。這些活躍在暗網上的掠奪者正在參與涉及根據現有兒童性虐待材料 (CSAM) 生成新圖像的對話。
AI 正在建立新的 CSAM 並還原舊的 CSAM。
像梅根這樣患有 CSAM 的倖存者表示,他們對人工智慧進一步利用他們的圖像的潛力表示越來越焦慮。梅根強調,人工智慧操縱可能會產生錯誤的印象,從而減輕虐待造成的痛苦,甚至暗示被虐待的樂趣。
人工智慧的使用使這些犯罪者能夠關注特定的兒童受害者(即「明星」),並製作更多以他們為特色的內容。這種令人不安的趨勢引起了 CSAM 倖存者的擔憂,他們擔心自己的圖像可能會被人工智慧操縱並傳播,這可能會威脅到他們的個人和職業生活。
支持者敦促立法阻止掠奪者製作 CSAM,然而,由於掠奪者利用人工智慧的加密訊息服務,他們懷疑執行產生新 CSAM 禁令的效率。
文化改革對於解決虐待的根源並從一開始就防止此類事件也是必要的。
技術在人工智慧生成的 CSAM 中的作用
暗網聊天室對話揭示了對人工智慧生成的 CSAM 的掠奪性迷戀。犯罪者對使用人工智慧根據熟悉的受害者創建新材料的前景表示興奮。
這些討論的範圍從在特定環境中重新創建前兒童色情明星的圖像到以數位方式重新製作舊的、低品質的虐待材料。人工智慧的進步為掠奪者提供了輕鬆存取工具的機會,這些工具可以產生越來越真實的虐待圖像。
掠奪者特別重視其線上社群中的「明星」受害者。與好萊塢名人類似,這些受害者被排名和編目,他們的圖像被精心操縱以創造不同的姿勢或場景。
執法回應和行動呼籲
總檢察長緻美國國會的信
在緻美國國會的一封信中,總檢察長敦促議員進行幹預並研究人工智慧 (AI) 對兒童性虐待材料的有害影響。
預防措施的迫切性
6 月,美國聯邦調查局 (FBI) 發佈公共警報,強調「深度偽造」的盛行,即透過更改無辜圖像或影片以顯示露骨的性活動而製作的虛假內容。掠奪者經常從社交媒體平台或其他線上網站獲取內容,並對其進行修改以瞄準受害者。
聯邦調查局收到了未成年人和成年人的報告,他們不同意他們的圖像被更改並在社交媒體或色情網站上分享以進行騷擾或勒索。
英國國家犯罪局 (NCA) 已確定多達83 萬名成年人對兒童構成性風險。 NCA 總幹事 Graeme Biggar 強調,觀看這些圖像,無論是真實的還是人工智慧生成的,都會顯著增加犯罪者發展為性虐待兒童的風險。
該機構已經觀察到人工智慧生成的超現實圖像和視頻,這給識別真正需要保護的兒童帶來了挑戰,同時進一步使虐待行為正常化。