儿童安全专家称,儿童性侵犯者正在利用人工智能制作儿童色情图片,重点关注特定受害者。这些性侵犯者活跃在暗网上,他们参与的对话涉及根据现有的儿童性虐待材料 (CSAM) 生成新图片。
人工智能正在创造新的CSAM并恢复旧的CSAM。
像梅根这样患有 CSAM 的幸存者表示,他们对人工智能进一步利用其形象的可能性越来越感到担忧。梅根强调,人工智能操纵可能会产生虚假印象,从而减轻虐待造成的痛苦,甚至暗示被虐待的乐趣。
人工智能的使用让这些罪犯能够痴迷于特定的儿童受害者(即“明星”)并制作更多以他们为主角的内容。这种令人不安的趋势引起了儿童性虐待受害者的担忧,他们担心自己的图像可能会被人工智能操纵并传播,这可能会威胁到他们的个人和职业生涯。
倡导者正在敦促立法阻止犯罪分子制造 CSAM,但是,他们怀疑,既然犯罪分子现在利用人工智能的加密消息服务,那么执行禁止生成新 CSAM 的法案的效率就很低。
文化改革对于解决虐待的根本原因以及从一开始就预防此类事件的发生也是必要的。
技术在 AI 生成的 CSAM 中的作用
暗网聊天室对话揭示了人工智能生成的 CSAM 的掠夺性魅力。犯罪者对使用人工智能根据熟悉的受害者创建新材料的前景感到兴奋。
这些讨论的范围从在特定场景中重现前儿童色情明星的图像到对旧的、低质量的虐待材料进行数字重制。人工智能的进步为犯罪者提供了可轻松获取工具的工具,这些工具可以生成越来越逼真的虐待图像。
色狼特别注重网络社区中的“明星”受害者。与好莱坞明星类似,这些受害者被分级和分类,他们的图像被精心处理以创造不同的姿势或场景。
执法部门的回应和行动呼吁
总检察长致美国国会的信
在致美国国会的一封信中,司法部长敦促议员们进行干预并研究人工智能对儿童性虐待材料的有害影响。
采取预防措施的紧迫性
6 月,美国联邦调查局发布公开警告,强调“深度伪造”的盛行——通过修改无辜图像或视频来显示露骨的性行为,从而制作出虚假内容。“掠食者”通常从社交媒体平台或其他在线网站获取内容,然后对其进行修改,以锁定受害者。
联邦调查局收到了未成年人和成年人的报告,他们未经同意,图像被修改并在社交媒体或色情网站上分享,以进行骚扰或勒索。
英国国家犯罪局(NCA)已识别出多达83万名对儿童构成性威胁的成年人。NCA局长格雷姆·比格强调,观看这些图像,无论是真实的还是人工智能生成的,都会大大增加犯罪者发展为性虐待儿童的风险。
该机构已经观察到超现实的人工智能生成的图像和视频,这对识别需要保护的真实儿童并进一步使虐待正常化带来了挑战。