Os predadores infantis estão a utilizar inteligência artificial para criar imagens sexualmente explícitas de crianças, concentrando-se em vítimas específicas, segundo especialistas em segurança infantil. Esses predadores, ativos na dark web, estão envolvidos em conversas que envolvem a geração de novas imagens com base em material existente de abuso sexual infantil (CSAM).
A AI está criando novos CSAM e recuperando CSAM antigos.
Sobreviventes como Megan, que sofreu de CSAM, expressaram a sua crescente ansiedade sobre o potencial da IA para explorar ainda mais as suas imagens. Megan enfatiza que a manipulação da IA pode criar falsas impressões que diminuem a dor causada pelo abuso ou até mesmo sugerem a alegria de ser abusado.
O uso da IA permitiu que esses infratores ficassem obcecados com vítimas infantis específicas (ou seja, as “estrelas”) e produzissem mais conteúdo com elas. Esta tendência perturbadora suscitou preocupações entre os sobreviventes do CSAM, que temem que as suas imagens possam ser manipuladas com IA e divulgadas, ameaçando potencialmente as suas vidas pessoais e profissionais.
Os defensores estão pedindo legislação para impedir que os predadores produzam CSAM, no entanto, duvidam da eficiência de impor a proibição de gerar novos CSAM, agora que os predadores utilizam os serviços de mensagens criptografadas da IA.
A reforma cultural também é necessária para combater as causas profundas dos abusos e, em primeiro lugar, prevenir tais incidentes.
O papel da tecnologia no CSAM gerado por IA
As conversas nas salas de bate-papo da dark web revelam o fascínio predatório pelo CSAM gerado por IA. Os infratores expressaram entusiasmo com a perspectiva de usar IA para criar novo material baseado em vítimas conhecidas.
Essas discussões variaram desde a recriação de imagens de ex-estrelas da pornografia infantil em ambientes específicos até a remasterização digital de material de abuso antigo e de baixa qualidade. Os avanços da IA proporcionaram aos predadores acesso fácil a ferramentas que podem gerar imagens de abuso cada vez mais realistas.
Os predadores dão ênfase especial às vítimas “estrelas” em suas comunidades online. Semelhante às celebridades de Hollywood, essas vítimas são classificadas e catalogadas, e suas imagens são meticulosamente manipuladas para criar diferentes poses ou cenários.
Respostas da aplicação da lei e apelos à ação
Carta ao Congresso dos EUA por procuradores-gerais
Numa carta dirigida ao Congresso dos EUA, os procuradores-gerais instaram os membros a intervir e estudar os impactos nocivos da inteligência artificial (IA) no material de abuso sexual infantil.
Urgência para Medidas Preventivas
Em junho, o FBI lançou um alerta público enfatizando a prevalência de “deepfakes” – conteúdo falso criado através da alteração de imagens ou vídeos inocentes para mostrar atividades sexuais explícitas. Os predadores muitas vezes obtêm conteúdo de plataformas de mídia social ou outros sites on-line, alterando-os para atingir as vítimas.
O FBI recebeu denúncias de menores e adultos que não consentiram que suas imagens fossem alteradas e compartilhadas nas redes sociais ou em sites pornográficos para assédio ou extorsão.
A Agência Nacional do Crime (NCA) no Reino Unido identificou até 830.000 adultos que representam um risco sexual para crianças. O Diretor Geral da NCA, Graeme Biggar, enfatizou que a visualização dessas imagens, sejam elas reais ou geradas por IA, aumenta significativamente o risco de os infratores progredirem para o abuso sexual de crianças.
A agência já observou imagens e vídeos hiper-realistas gerados por IA, que representam desafios na identificação de crianças reais que necessitam de proteção, ao mesmo tempo que normalizam ainda mais o abuso.