ผู้ล่าเด็กกำลังใช้ปัญญาประดิษฐ์เพื่อสร้างภาพเด็กที่มีเนื้อหาทางเพศอย่างโจ่งแจ้ง โดยมุ่งเน้นไปที่เหยื่อรายใดรายหนึ่ง ตามที่ผู้เชี่ยวชาญด้านความปลอดภัยของเด็กระบุ ผู้ล่าเหล่านี้ซึ่งใช้งานเว็บมืดกำลังมีส่วนร่วมในการสนทนาที่เกี่ยวข้องกับการสร้างภาพใหม่โดยอิงจากสื่อการล่วงละเมิดทางเพศเด็ก (CSAM) ที่มีอยู่
AI กำลังสร้าง CSAM ใหม่และกู้คืน CSAM เก่า
ผู้รอดชีวิตเช่นเมแกน ซึ่งได้รับผลกระทบจาก CSAM ได้แสดงความกังวลมากขึ้นเกี่ยวกับศักยภาพของ AI ในการใช้ประโยชน์จากภาพของพวกเขาต่อไป เมแกนเน้นย้ำว่าการบงการของ AI สามารถสร้างความรู้สึกผิด ๆ ซึ่งลดความเจ็บปวดที่เกิดจากการละเมิด หรือแม้แต่บ่งบอกถึงความสุขจากการถูกทารุณกรรม
การใช้ AI ช่วยให้ผู้กระทำผิดเหล่านี้สามารถหมกมุ่นอยู่กับเหยื่อที่เป็นเด็กโดยเฉพาะ (เช่น "ดารา") และสร้างเนื้อหาที่มีพวกเขามากขึ้น แนวโน้มที่น่ากังวลนี้ทำให้เกิดความกังวลในหมู่ผู้รอดชีวิตจาก CSAM ซึ่งกลัวว่าภาพของพวกเขาอาจถูกดัดแปลงด้วย AI และเผยแพร่ ซึ่งอาจคุกคามชีวิตส่วนตัวและอาชีพของพวกเขา
ผู้สนับสนุนกำลังเรียกร้องให้ออกกฎหมายเพื่อหยุดผู้ล่าจากการสร้าง CSAM อย่างไรก็ตาม พวกเขาสงสัยในประสิทธิภาพของการบังคับใช้การห้ามสร้าง CSAM ใหม่ในขณะนี้ เนื่องจากผู้ล่าใช้บริการส่งข้อความที่เข้ารหัสของ AI
การปฏิรูปวัฒนธรรมยังเป็นสิ่งจำเป็นเพื่อจัดการกับต้นตอของการละเมิดและป้องกันเหตุการณ์ดังกล่าวตั้งแต่แรก
บทบาทของเทคโนโลยีใน CSAM ที่สร้างโดย AI
การสนทนาในห้องแชทบนเว็บมืดเผยให้เห็นความหลงใหลในนักล่าด้วย CSAM ที่สร้างโดย AI ผู้กระทำผิดแสดงความตื่นเต้นเกี่ยวกับโอกาสที่จะใช้ AI เพื่อสร้างเนื้อหาใหม่โดยอิงจากเหยื่อที่คุ้นเคย
การอภิปรายเหล่านี้มีตั้งแต่การสร้างรูปภาพของอดีตดาราหนังโป๊เด็กขึ้นมาใหม่ในสภาพแวดล้อมเฉพาะ ไปจนถึงการนำเนื้อหาการละเมิดคุณภาพต่ำมาสร้างใหม่ทางดิจิทัล ความก้าวหน้าของ AI ช่วยให้นักล่าสามารถเข้าถึงเครื่องมือที่สามารถสร้างภาพการละเมิดที่สมจริงมากขึ้น
Predators ให้ความสำคัญกับเหยื่อ "ดารา" ภายในชุมชนออนไลน์ของตนเป็นพิเศษ เช่นเดียวกับดาราฮอลลีวูด เหยื่อเหล่านี้ได้รับการจัดอันดับและจัดหมวดหมู่ และรูปภาพของพวกเขาได้รับการปรับแต่งอย่างพิถีพิถันเพื่อสร้างท่าทางหรือสถานการณ์ที่แตกต่างกัน
การตอบสนองของการบังคับใช้กฎหมายและการเรียกร้องให้ดำเนินการ
จดหมายถึงรัฐสภาสหรัฐฯ โดยอัยการสูงสุด
ในจดหมายที่ส่งถึงรัฐสภาสหรัฐฯ อัยการสูงสุดเรียกร้องให้สมาชิกเข้ามาแทรกแซงและศึกษาผลกระทบที่เป็นอันตรายของปัญญาประดิษฐ์ (AI) ต่อสื่อการล่วงละเมิดทางเพศเด็ก
ความเร่งด่วนสำหรับมาตรการป้องกัน
ในเดือนมิถุนายน FBI ออกประกาศเตือนภัยสาธารณะโดยเน้นย้ำถึงความแพร่หลายของ "ดีพเฟค" ซึ่งเป็นเนื้อหาปลอมที่เกิดจากการแก้ไขรูปภาพหรือวิดีโอที่ไร้เดียงสาเพื่อแสดงกิจกรรมทางเพศอย่างโจ่งแจ้ง ผู้ล่ามักจะนำเนื้อหามาจากแพลตฟอร์มโซเชียลมีเดียหรือเว็บไซต์ออนไลน์อื่นๆ เพื่อเปลี่ยนเนื้อหาเหล่านั้นให้ตกเป็นเป้าหมายของเหยื่อ
FBI ได้รับรายงานจากผู้เยาว์และผู้ใหญ่ที่ไม่ยินยอมให้แก้ไขรูปภาพของตนและแชร์บนโซเชียลมีเดียหรือเว็บไซต์ลามกอนาจาร ฐานคุกคามหรือขู่กรรโชก
สำนักงานอาชญากรรมแห่งชาติ (NCA) ในสหราชอาณาจักรสามารถระบุตัวผู้ใหญ่ได้มากถึง 830,000 คนที่มีความเสี่ยงทางเพศต่อเด็ก Graeme Biggar ผู้อำนวยการทั่วไปของ NCA เน้นย้ำว่าการดูภาพเหล่านี้ ไม่ว่าจะเป็นภาพจริงหรือที่สร้างโดย AI จะเพิ่มความเสี่ยงที่ผู้กระทำผิดจะล่วงละเมิดทางเพศเด็กอย่างมีนัยสำคัญ
หน่วยงานได้สังเกตเห็นภาพและวิดีโอที่สร้างโดย AI ที่สมจริงเกินจริง ซึ่งก่อให้เกิดความท้าทายในการระบุตัวเด็กที่แท้จริงที่ต้องการการปกป้อง ในขณะเดียวกันก็ทำให้การละเมิดเป็นปกติ