По мнению экспертов по безопасности детей, детские хищники используют искусственный интеллект для создания откровенно сексуальных изображений детей, фокусируясь на конкретных жертвах. Эти хищники, активные в темной сети, участвуют в разговорах, которые включают создание новых изображений на основе существующих материалов о сексуальном насилии над детьми (CSAM).
ИИ создает новый CSAM и восстанавливает старый CSAM.
Выжившие, такие как Меган, которая пострадала от CSAM, выразили растущую тревогу по поводу того, что ИИ может и дальше использовать их изображения. Меган подчеркивает, что манипуляции с искусственным интеллектом могут создавать ложные впечатления, которые уменьшают боль, вызванную насилием, или даже предполагают радость от насилия.
Использование искусственного интеллекта позволило этим правонарушителям зацикливаться на конкретных детях-жертвах (а именно, на «звездах») и создавать больше контента с их участием. Эта тревожная тенденция вызвала обеспокоенность среди людей, переживших CSAM, которые опасаются, что их изображениями могут манипулировать с помощью ИИ и распространяться, что потенциально угрожает их личной и профессиональной жизни.
Защитники призывают принять закон, чтобы помешать хищникам создавать CSAM, однако они сомневаются в эффективности обеспечения соблюдения запрета на создание новых CSAM сейчас, когда хищники используют службы зашифрованных сообщений ИИ.
Культурная реформа также необходима для устранения коренных причин злоупотреблений и, в первую очередь, для предотвращения таких инцидентов.
Роль технологий в CSAM, генерируемом искусственным интеллектом
Разговоры в чатах даркнета раскрывают хищническое увлечение CSAM, созданным искусственным интеллектом. Преступники выразили волнение по поводу перспективы использования ИИ для создания новых материалов на основе знакомых жертв.
Эти дискуссии варьировались от воссоздания изображений бывших звезд детской порнографии в конкретных условиях до цифрового ремастеринга старых, низкокачественных материалов о насилии. Достижения искусственного интеллекта предоставили хищникам легкий доступ к инструментам, которые могут создавать все более реалистичные изображения злоупотреблений.
Хищники уделяют особое внимание «звездным» жертвам в своих интернет-сообществах. Подобно голливудским знаменитостям, эти жертвы ранжируются и каталогизируются, а их изображения тщательно манипулируются для создания различных поз или сценариев.
Реакция правоохранительных органов и призывы к действию
Письмо генерального прокурора Конгрессу США
В письме, адресованном Конгрессу США, генеральные прокуроры призвали членов вмешаться и изучить вредное воздействие искусственного интеллекта (ИИ) на материалы о сексуальном насилии над детьми.
Срочная необходимость профилактических мер
В июне ФБР опубликовало публичное предупреждение, подчеркнув распространенность «дипфейков» — фейкового контента, созданного путем изменения невинных изображений или видео для демонстрации откровенных сексуальных действий. Хищники часто получают контент с платформ социальных сетей или других онлайн-сайтов, изменяя его для своих жертв.
ФБР получило сообщения от несовершеннолетних и взрослых, которые не дали согласия на то, что их изображения были изменены и размещены в социальных сетях или на порнографических сайтах с целью преследования или вымогательства.
Национальное агентство по борьбе с преступностью (NCA) Соединенного Королевства выявило до 830 000 взрослых, которые представляют сексуальный риск для детей. Генеральный директор NCA Грэм Биггар подчеркнул, что просмотр этих изображений, реальных или созданных искусственным интеллектом, значительно увеличивает риск того, что преступники перерастут в сексуальное насилие над детьми.
Агентство уже наблюдало сверхреалистичные изображения и видео, созданные с помощью искусственного интеллекта, которые создают проблемы с выявлением реальных детей, нуждающихся в защите, и дальнейшей нормализацией жестокого обращения.