Según expertos en seguridad infantil, los depredadores de niños están utilizando inteligencia artificial para crear imágenes sexualmente explícitas de niños, centrándose en víctimas específicas. Estos depredadores, activos en la web oscura, participan en conversaciones que implican generar nuevas imágenes basadas en material de abuso sexual infantil (CSAM) existente.
La IA está creando nuevos CSAM y recuperando viejos CSAM.
Los sobrevivientes como Megan, que sufrió CSAM, han expresado su creciente ansiedad sobre el potencial de la IA para explotar aún más sus imágenes. Megan enfatiza que la manipulación de la IA podría crear impresiones falsas que disminuyan el dolor causado por el abuso o incluso sugieran la alegría de ser abusado.
El uso de la IA ha permitido a estos delincuentes obsesionarse con víctimas infantiles específicas (es decir, las "estrellas") y producir más contenido sobre ellas. Esta inquietante tendencia ha generado preocupación entre los supervivientes de CSAM, que temen que sus imágenes puedan ser manipuladas con IA y circuladas, amenazando potencialmente sus vidas personales y profesionales.
Los defensores instan a legislar para impedir que los depredadores produzcan CSAM; sin embargo, dudan de la eficiencia de hacer cumplir la prohibición de generar nuevo CSAM ahora que los depredadores utilizan los servicios de mensajería cifrada de IA.
También es necesaria una reforma cultural para abordar las causas profundas de los abusos y prevenir tales incidentes en primer lugar.
El papel de la tecnología en el CSAM generado por IA
Las conversaciones en las salas de chat de la web oscura revelan la fascinación depredadora por el CSAM generado por IA. Los delincuentes expresaron entusiasmo ante la perspectiva de utilizar IA para crear material nuevo basado en víctimas conocidas.
Estas discusiones abarcaron desde la recreación de imágenes de ex estrellas de la pornografía infantil en entornos específicos hasta la remasterización digital de material de abuso antiguo y de baja calidad. Los avances de la IA han proporcionado a los depredadores un fácil acceso a herramientas que pueden generar imágenes de abuso cada vez más realistas.
Los depredadores ponen especial énfasis en las víctimas "estrella" dentro de sus comunidades en línea. Al igual que las celebridades de Hollywood, estas víctimas son clasificadas y catalogadas, y sus imágenes se manipulan meticulosamente para crear diferentes poses o escenarios.
Respuestas de las fuerzas del orden y llamados a la acción
Carta de los fiscales generales al Congreso de los Estados Unidos
En una carta dirigida al Congreso de Estados Unidos, los fiscales generales instaron a los miembros a intervenir y estudiar los impactos nocivos de la inteligencia artificial (IA) en el material de abuso sexual infantil.
Urgencia de medidas preventivas
En junio, el FBI publicó una alerta pública que enfatizaba la prevalencia de los "deepfakes": contenido falso creado alterando imágenes o videos inocentes para mostrar actividades sexuales explícitas. Los depredadores a menudo obtienen contenido de plataformas de redes sociales u otros sitios web en línea, modificándolos para atacar a las víctimas.
El FBI ha recibido informes de menores y adultos que no dieron su consentimiento para que sus imágenes fueran alteradas y compartidas en redes sociales o sitios web pornográficos para acoso o extorsión.
La Agencia Nacional contra el Crimen (NCA) del Reino Unido ha identificado hasta 830.000 adultos que suponen un riesgo sexual para los niños. El director general de la NCA, Graeme Biggar, enfatizó que ver estas imágenes, ya sean reales o generadas por IA, aumenta significativamente el riesgo de que los delincuentes avancen hasta abusar sexualmente de niños.
La agencia ya ha observado imágenes y vídeos hiperrealistas generados por IA, que plantean desafíos a la hora de identificar a niños reales que necesitan protección y, al mismo tiempo, normalizar aún más el abuso.