يستخدم المحتالون الأطفال الذكاء الاصطناعي لإنشاء صور جنسية صريحة للأطفال، مع التركيز على ضحايا محددين، وفقًا لخبراء سلامة الأطفال. ينخرط هؤلاء المحتالون، النشطون على شبكة الإنترنت المظلمة، في محادثات تتضمن إنشاء صور جديدة بناءً على مواد الاعتداء الجنسي على الأطفال (CSAM) الموجودة.
يقوم الذكاء الاصطناعي بإنشاء CSAM جديد واستعادة CSAM القديم.
أعرب الناجون مثل ميغان، التي عانت من CSAM، عن قلقهم المتزايد بشأن قدرة الذكاء الاصطناعي على استغلال صورهم بشكل أكبر. تؤكد ميغان أن التلاعب بالذكاء الاصطناعي يمكن أن يخلق انطباعات كاذبة تقلل من الألم الناجم عن سوء المعاملة أو حتى تشير إلى متعة التعرض للإساءة.
لقد أدى استخدام الذكاء الاصطناعي إلى تمكين هؤلاء المجرمين من الهوس بضحايا محددين من الأطفال (أي "النجوم") وإنتاج المزيد من المحتوى الذي يعرضهم. وقد أثار هذا الاتجاه المثير للقلق مخاوف بين الناجين من الاعتداءات الجنسية والاعتداء الجنسي، الذين يخشون أن يتم التلاعب بصورهم باستخدام الذكاء الاصطناعي ونشرها، مما قد يهدد حياتهم الشخصية والمهنية.
يحث المؤيدون على سن تشريعات لمنع الحيوانات المفترسة من صنع مواد الاعتداء الجنسي على الأطفال، ومع ذلك، فإنهم يشككون في كفاءة فرض الحظر على إنشاء مواد الاعتداء الجنسي على الأطفال الجديدة الآن حيث يستخدم المفترسون خدمات الرسائل المشفرة للذكاء الاصطناعي.
الإصلاح الثقافي ضروري أيضًا لمعالجة الأسباب الجذرية للإساءة ومنع مثل هذه الحوادث في المقام الأول.
دور التكنولوجيا في CSAM الناتج عن الذكاء الاصطناعي
تكشف محادثات غرفة الدردشة على الويب المظلم عن الانبهار المفترس بـ CSAM التي تم إنشاؤها بواسطة الذكاء الاصطناعي. أعرب الجناة عن حماستهم لاحتمال استخدام الذكاء الاصطناعي لإنشاء مواد جديدة تعتمد على الضحايا المألوفين.
وتراوحت هذه المناقشات بين إعادة إنشاء صور لنجوم سابقين في المواد الإباحية المتعلقة بالأطفال في أماكن محددة، إلى إعادة صياغة المواد القديمة ذات الجودة المنخفضة رقميًا. لقد أتاحت التطورات التي حققها الذكاء الاصطناعي للمفترسين إمكانية الوصول بسهولة إلى الأدوات التي يمكنها توليد صور إساءة استخدام واقعية بشكل متزايد.
يركز المفترسون بشكل خاص على الضحايا "النجوم" داخل مجتمعاتهم عبر الإنترنت. وكما هو الحال مع مشاهير هوليود، يتم ترتيب هؤلاء الضحايا وفهرستهم، ويتم التلاعب بصورهم بدقة لإنشاء أوضاع أو سيناريوهات مختلفة.
استجابات إنفاذ القانون والدعوات للعمل
رسالة إلى الكونجرس الأمريكي من المدعين العامين
وفي رسالة موجهة إلى الكونجرس الأمريكي، حث المدعين العامين الأعضاء على التدخل ودراسة الآثار الضارة للذكاء الاصطناعي على مواد الاعتداء الجنسي على الأطفال.
الحاجة الملحة لاتخاذ التدابير الوقائية
في يونيو/حزيران، أصدر مكتب التحقيقات الفيدرالي تنبيهًا عامًا يؤكد على انتشار "التزييف العميق" - وهو محتوى مزيف يتم إنشاؤه عن طريق تغيير صور أو مقاطع فيديو بريئة لإظهار أنشطة جنسية صريحة. غالبًا ما يحصل المحتالون على المحتوى من منصات التواصل الاجتماعي أو مواقع الويب الأخرى عبر الإنترنت، ويقومون بتعديلها لاستهداف الضحايا.
تلقى مكتب التحقيقات الفيدرالي (FBI) تقارير من قاصرين وبالغين لم يوافقوا على تغيير صورهم ومشاركتها على وسائل التواصل الاجتماعي أو المواقع الإباحية للتحرش أو الابتزاز.
حددت الوكالة الوطنية لمكافحة الجريمة (NCA) في المملكة المتحدة ما يصل إلى 830 ألف بالغ يشكلون خطرًا جنسيًا على الأطفال. وأكد المدير العام للوكالة الوطنية لمكافحة الجريمة، غرايم بيغار، أن عرض هذه الصور، سواء كانت حقيقية أو تم إنشاؤها بواسطة الذكاء الاصطناعي، يزيد بشكل كبير من خطر تقدم الجناة إلى الاعتداء الجنسي على الأطفال.
وقد لاحظت الوكالة بالفعل صورًا ومقاطع فيديو شديدة الواقعية تم إنشاؤها بواسطة الذكاء الاصطناعي، والتي تشكل تحديات في تحديد الأطفال الحقيقيين الذين يحتاجون إلى الحماية مع زيادة تطبيع الانتهاكات.