Heim > Entdecken > Kinderschänder nutzen künstliche Intelligenz, um sexuelle Bilder von „Stars“ zu erzeugen

Kinderschänder nutzen künstliche Intelligenz, um sexuelle Bilder von „Stars“ zu erzeugen

Geschrieben von
ArticleGPT

Überprüft und auf Fakten geprüft vom HIX.AI-Team

4 Minuten LesezeitJun 20, 2024
Kinderschänder nutzen künstliche Intelligenz, um sexuelle Bilder von „Stars“ zu erzeugen

Kurzgesagt

Der Aufstieg der KI-Technologie hat es Tätern ermöglicht, gezielt minderjährige Opfer – sogenannte Stars – ins Visier zu nehmen und so noch schädlichere Inhalte zu produzieren.

Kinderschänder nutzen künstliche Intelligenz, um sexuell eindeutige Bilder von Kindern zu erstellen, wobei sie sich auf bestimmte Opfer konzentrieren, sagen Experten für Kindersicherheit. Diese Täter, die im Darknet aktiv sind, führen Gespräche, bei denen es darum geht, neue Bilder auf der Grundlage von vorhandenem Material über sexuellen Kindesmissbrauch (CSAM) zu erstellen.

Durch KI werden neue CSAM geschaffen und alte CSAM wiederhergestellt.

Überlebende wie Megan, die Opfer von CSAM geworden ist, haben ihre wachsende Angst vor der Möglichkeit zum Ausdruck gebracht, dass KI ihre Bilder weiter ausnutzen könnte. Megan betont, dass KI-Manipulationen falsche Eindrücke erzeugen könnten, die den durch den Missbrauch verursachten Schmerz verringern oder sogar die Freude am Missbrauch suggerieren.

Der Einsatz von KI hat es diesen Tätern ermöglicht, sich auf bestimmte Kinderopfer (die „Stars“) zu konzentrieren und mehr Inhalte zu produzieren, in denen diese Opfer vorkommen. Dieser beunruhigende Trend hat bei Opfern von sexuellem Missbrauch von Kindern Besorgnis ausgelöst. Sie befürchten, dass ihre Bilder mithilfe von KI manipuliert und verbreitet werden könnten, was ihr Privat- und Berufsleben gefährden könnte.

Befürworter fordern gesetzliche Regelungen, um Sexualstraftäter von der Erstellung von CSAM abzuhalten. Allerdings bezweifeln sie, dass sich das Verbot neuer CSAM wirksam durchsetzen lässt, da Sexualstraftäter inzwischen die verschlüsselten Nachrichtendienste künstlicher Intelligenz nutzen.

Darüber hinaus sind kulturelle Reformen notwendig, um die Ursachen des Missbrauchs zu bekämpfen und solche Vorfälle von vornherein zu verhindern.

Die Rolle der Technologie bei KI-generiertem CSAM

Gespräche im Darknet zeigen, wie kriminell die Opfer von CSAM sind, das durch KI generiert wird. Die Täter zeigten sich begeistert von der Aussicht, mithilfe von KI neues Material auf der Grundlage bekannter Opfer zu erstellen.

Die Diskussionen reichten von der Nachbildung von Bildern ehemaliger Kinderpornostars in bestimmten Umgebungen bis hin zur digitalen Überarbeitung von altem, minderwertigem Missbrauchsmaterial. Die Fortschritte in der künstlichen Intelligenz haben Tätern einen einfachen Zugang zu Werkzeugen verschafft, mit denen sie zunehmend realistische Missbrauchsbilder erzeugen können.

Die Täter legen in ihren Online-Communitys besonderen Wert auf „Star“-Opfer. Ähnlich wie bei Hollywood-Stars werden diese Opfer bewertet und katalogisiert und ihre Bilder werden sorgfältig manipuliert, um verschiedene Posen oder Szenarien zu schaffen.

Reaktionen der Strafverfolgungsbehörden und Handlungsaufforderungen

Brief der Generalstaatsanwälte an den US-Kongress

In einem Brief an den US-Kongress forderten die Generalstaatsanwälte die Mitglieder auf, einzugreifen und die schädlichen Auswirkungen künstlicher Intelligenz (KI) auf Darstellungen von Kindesmissbrauch zu untersuchen.

Dringlichkeit präventiver Maßnahmen

Im Juni veröffentlichte das FBI eine öffentliche Warnung, in der es auf die Verbreitung von „Deepfakes“ hinwies – gefälschte Inhalte, die durch die Veränderung harmloser Bilder oder Videos erstellt werden, um explizite sexuelle Aktivitäten zu zeigen. Täter beziehen Inhalte häufig von Social-Media-Plattformen oder anderen Online-Websites und verändern sie, um gezielt Opfer anzusprechen.

Dem FBI liegen Berichte von Minderjährigen und Erwachsenen vor, die nicht eingewilligt hatten, dass ihre Bilder verändert und zum Zweck der Belästigung oder Erpressung in sozialen Medien oder auf pornografischen Websites verbreitet wurden.

Die britische National Crime Agency (NCA) hat bis zu 830.000 Erwachsene identifiziert, die ein sexuelles Risiko für Kinder darstellen. NCA-Direktor Graeme Biggar betonte, dass das Betrachten dieser Bilder, ob real oder von KI generiert, das Risiko für Täter, Kinder sexuell zu missbrauchen, erheblich erhöhe.

Die Agentur hat bereits hyperrealistische, KI-generierte Bilder und Videos beobachtet, die es schwierig machen, echte Kinder zu identifizieren, die Schutz benötigen, und die den Missbrauch weiter normalisieren.

Basierend auf 3 Suchquellen

3 Quellen

Child predators are using AI to create sexual images of their favorite ‘stars’: ‘My body will never be mine again’

Predators active on the dark web are increasingly using artificial intelligence to create sexually explicit images of children, fixating especially on “star” victims, child safety experts warn.

Predators are using AI to sexually exploit children, FBI says. Here’s what we know

As the use of artificial intelligence grows, officials across the world are expressing their concerns about its use in the creation of child sex abuse material.

Predators using AI to exploit children

Sexual predators are using a new tool to exploit children: AI (artificial intelligence) image generators.

Auf dieser Seite

  • Durch KI werden neue CSAM geschaffen und alte CSAM wiederhergestellt.
  • Die Rolle der Technologie bei KI-generiertem CSAM
  • Reaktionen der Strafverfolgungsbehörden und Handlungsaufforderungen