児童安全の専門家によると、児童虐待者は人工知能を使って、特定の被害者に的を絞った性的に露骨な児童画像を作成している。ダークウェブで活動するこれらの虐待者は、既存の児童性的虐待資料(CSAM)に基づいて新しい画像を生成する会話を行っている。
AI は新しい CSAM を作成し、古い CSAM を回復しています。
CSAM に苦しんだメガンさんのような被害者は、AI が自分たちの画像をさらに悪用する可能性について、不安が高まっていると表明している。メガンさんは、AI による操作によって、虐待による苦痛を軽減したり、虐待を受ける喜びを示唆したりするような誤った印象を与える可能性があると強調している。
AI の使用により、これらの犯罪者は特定の児童被害者 (つまり「スター」) に執着し、彼らを題材にしたコンテンツを制作するようになりました。この不穏な傾向は、CSAM の被害者の間で懸念を引き起こしています。被害者たちは、自分の画像が AI によって操作されて流通し、私生活や職業生活が脅かされる可能性があると恐れています。
擁護者たちは、捕食者が CSAM を作成することを阻止するための法律制定を促しているが、捕食者が AI の暗号化メッセージング サービスを利用している現在、新しい CSAM の生成を禁止することの有効性については疑問を抱いている。
虐待の根本的な原因に取り組み、そもそもそのような事件を防ぐためにも、文化改革は必要です。
AI生成CSAMにおけるテクノロジーの役割
ダークウェブのチャットルームでの会話は、AI が生成した CSAM に対する略奪的な関心を明らかにしています。犯罪者は、AI を使用して身近な被害者に基づいた新しい素材を作成する可能性に興奮を表明しました。
議論の内容は、特定の設定で元児童ポルノスターの画像を再現することから、古くて低品質の虐待素材をデジタルでリマスターすることまで多岐にわたりました。AI の進歩により、虐待者はよりリアルな虐待画像を生成できるツールに簡単にアクセスできるようになりました。
プレデターは、オンライン コミュニティ内で「スター」の犠牲者を特に重視します。ハリウッドの有名人と同様に、これらの犠牲者はランク付けされ、カタログ化され、その画像はさまざまなポーズやシナリオを作成するために細心の注意を払って操作されます。
法執行機関の対応と行動の呼びかけ
司法長官による米国議会への書簡
米司法長官は米国議会に宛てた書簡の中で、議員らに対し、人工知能(AI)が児童性的虐待資料に及ぼす有害な影響について介入し研究するよう求めた。
予防措置の緊急性
FBIは6月、「ディープフェイク」の蔓延を強調する一般向け警告を発表した。ディープフェイクとは、無害な画像や動画を改変して露骨な性行為を見せつけることで作られた偽コンテンツである。犯罪者はソーシャルメディアプラットフォームや他のオンラインウェブサイトからコンテンツを入手し、被害者を狙うために改変することが多い。
FBIは、嫌がらせや恐喝を目的として、自分の画像が改変されソーシャルメディアやポルノウェブサイトで共有されることに同意していない未成年者や成人から報告を受けている。
英国の国家犯罪対策庁(NCA)は、児童に性的危険をもたらす成人を最大83万人特定した。NCAのグレアム・ビガー長官は、これらの画像(本物かAI生成かを問わず)を見ると、犯罪者が児童を性的に虐待するリスクが大幅に高まると強調した。
同庁はすでに、AIが生成した超現実的な画像や動画を観察しており、保護を必要とする実際の子どもを特定することが困難になるとともに、虐待がさらに常態化している。