Maison > Découvrir > Des enfants prédateurs exploitent l’IA pour générer des images sexuelles de « stars »

Des enfants prédateurs exploitent l’IA pour générer des images sexuelles de « stars »

Écrit par
ArticleGPT

Examiné et vérifié par l'équipe HIX.AI

4 minutes de lectureJun 20, 2024
Des enfants prédateurs exploitent l’IA pour générer des images sexuelles de « stars »

En un mot

L’essor de la technologie de l’IA a permis aux délinquants de cibler des enfants victimes spécifiques, connus sous le nom de stars, dans la production de contenus plus préjudiciables.

Les prédateurs d'enfants utilisent l'intelligence artificielle pour créer des images sexuellement explicites d'enfants, en se concentrant sur des victimes spécifiques, selon des experts en sécurité des enfants. Ces prédateurs, actifs sur le dark web, s’engagent dans des conversations qui impliquent de générer de nouvelles images basées sur du matériel pédophile existant (CSAM).

L’IA crée de nouveaux CSAM et récupère les anciens CSAM.

Les survivants comme Megan, qui a souffert de CSAM, ont exprimé leur inquiétude croissante quant au potentiel de l'IA à exploiter davantage leurs images. Megan souligne que la manipulation de l'IA pourrait créer de fausses impressions qui diminueraient la douleur causée par la maltraitance ou même suggérer la joie d'être maltraitée.

L'utilisation de l'IA a permis à ces délinquants d'être obsédés par des enfants victimes spécifiques (à savoir les « stars ») et de produire davantage de contenu les mettant en vedette. Cette tendance inquiétante a suscité l’inquiétude des survivants du CSAM, qui craignent que leurs images soient manipulées par l’IA et diffusées, menaçant potentiellement leur vie personnelle et professionnelle.

Les partisans demandent une législation pour empêcher les prédateurs de créer du CSAM, mais ils doutent de l'efficacité de l'application de l'interdiction de générer de nouveaux CSAM maintenant que les prédateurs utilisent les services de messagerie cryptés d'IA.

Une réforme culturelle est également nécessaire pour s’attaquer aux causes profondes des abus et prévenir de tels incidents en premier lieu.

Le rôle de la technologie dans le CSAM généré par l'IA

Les conversations sur les forums de discussion sur le Dark Web révèlent la fascination prédatrice pour le CSAM généré par l’IA. Les délinquants ont exprimé leur enthousiasme à l’idée d’utiliser l’IA pour créer de nouveaux contenus basés sur des victimes familières.

Ces discussions allaient de la recréation d’images d’anciennes stars de la pédopornographie dans des contextes spécifiques à la remasterisation numérique d’anciens matériels abusifs de mauvaise qualité. Les progrès de l’IA ont permis aux prédateurs d’accéder facilement à des outils capables de générer des images d’abus de plus en plus réalistes.

Les prédateurs accordent une importance particulière aux victimes « vedettes » au sein de leurs communautés en ligne. Semblables aux célébrités hollywoodiennes, ces victimes sont classées et cataloguées, et leurs images sont méticuleusement manipulées pour créer différentes poses ou scénarios.

Réponses des forces de l’ordre et appels à l’action

Lettre au Congrès américain des procureurs généraux

Dans une lettre adressée au Congrès américain, les procureurs généraux ont exhorté ses membres à intervenir et à étudier les effets néfastes de l'intelligence artificielle (IA) sur les contenus pédopornographiques.

Urgence de mesures préventives

En juin, le FBI a publié une alerte publique soulignant la prévalence des « deepfakes » – de faux contenus créés en modifiant des images ou des vidéos innocentes pour montrer des activités sexuelles explicites. Les prédateurs s’approvisionnent souvent en contenu sur les plateformes de médias sociaux ou d’autres sites Web en ligne, et les modifient pour cibler leurs victimes.

Le FBI a reçu des rapports de mineurs et d'adultes n'ayant pas consenti selon lesquels leurs images étaient modifiées et partagées sur les réseaux sociaux ou sur des sites Web pornographiques à des fins de harcèlement ou d'extorsion.

La National Crime Agency (NCA) du Royaume-Uni a identifié jusqu'à 830 000 adultes qui présentent un risque sexuel pour les enfants. Le directeur général de la NCA, Graeme Biggar, a souligné que le visionnage de ces images, qu'elles soient réelles ou générées par l'IA, augmente considérablement le risque que les délinquants évoluent vers des abus sexuels sur des enfants.

L’agence a déjà observé des images et des vidéos hyperréalistes générées par l’IA, qui posent des problèmes pour identifier les vrais enfants ayant besoin de protection tout en normalisant davantage les abus.

Basé sur 3 sources de recherche

3 sources

Child predators are using AI to create sexual images of their favorite ‘stars’: ‘My body will never be mine again’

Predators active on the dark web are increasingly using artificial intelligence to create sexually explicit images of children, fixating especially on “star” victims, child safety experts warn.

Predators are using AI to sexually exploit children, FBI says. Here’s what we know

As the use of artificial intelligence grows, officials across the world are expressing their concerns about its use in the creation of child sex abuse material.

Predators using AI to exploit children

Sexual predators are using a new tool to exploit children: AI (artificial intelligence) image generators.

Sur cette page

  • L’IA crée de nouveaux CSAM et récupère les anciens CSAM.
  • Le rôle de la technologie dans le CSAM généré par l'IA
  • Réponses des forces de l’ordre et appels à l’action