Illustration: Hände an einem Laptop mit dem Gesicht eines Kindes
Illustration: Hände an einem Laptop mit dem Gesicht eines Kindes
Bild
ARD Story: Kindesmissbrauch mit KI
Bildrechte: Cola Rérat, tricky collective
Schlagwörter
Bildrechte: Cola Rérat, tricky collective
Videobeitrag

ARD Story: Kindesmissbrauch mit KI

Videobeitrag
>

Gefährliche KI: Neue Dimension des Kindesmissbrauchs

Gefährliche KI: Neue Dimension des Kindesmissbrauchs

Täuschend echte, leicht erzeugbare KI-Bilder sexualisierter Gewalt an Kindern nehmen rasant zu: Ihre Zahl hat sich binnen eines Jahres vervielfacht. Diese Entwicklung normalisiert den Missbrauch, steigert die Nachfrage und gefährdet Kinder weltweit.

Über dieses Thema berichtet: Gefährliche Intelligenz · Kindesmissbrauch mit KI am .

Künstliche Intelligenz hat eine neue Dimension sexualisierter Gewalt gegen Kinder geschaffen – und die Entwicklung beschleunigt sich rasant. Die Internet Watch Foundation (IWF) spricht von einer Vervierfachung solcher Inhalte in nur einem Jahr, die US-Organisation National Center for Missing & Exploited Children (NCMEC) sogar von einer Verdreizehnfachung. "Man braucht heute keinen Supercomputer mehr, um generative KI zu nutzen", sagt Dan Sexton, Technischer Leiter der IWF. Was 2023 noch grob wirkte und wie computergenerierte Puppen aussah, wirkt heute wie Realität. Für das ungeschulte Auge sind künstlich erzeugte Bilder kaum noch zu erkennen.

Harmlose Kinderbilder werden zu Vorlagen

Ermittler stellen fest, dass Täter KI ganz gezielt einsetzen. "Sie nutzen reale Fotos – aus Social Media, Stockdatenbanken oder dem privaten Umfeld – und bringen sie mit KI in einen pornografischen Kontext", sagt Thomas Goger von der Zentralstelle Cybercrime Bayern in Bamberg in der ARD-Doku "Gefährliche Intelligenz – Kindesmissbrauch mit KI".

Auf diese Weise werden Kinder ohne ihr Wissen zu Opfern von sexualisierter Gewalt. Die Internet Watch Foundation baut Tools, damit Missbrauchsinhalte schneller gefunden, analysiert und gelöscht werden können. Ob künstlich generiert oder real: Das Ziel ist dazu beizutragen, dass das Material dauerhaft aus dem Netz verschwindet. Ein Kampf gegen Windmühlen? Schließlich können Täter mithilfe der geeigneten KI-Modelle in Minutenschnelle ganze Bilderserien neu generieren.

KI-Modelle: Offene Technik – offener Missbrauch

Eine der gefährlichsten Entwicklungen ist, dass Täter auf offene KI-Modelle zurückgreifen. "Meist nutzen sie frei verfügbare Systeme, die lokal auf dem eigenen Rechner laufen", sagt Sexton. Forschende der TU Darmstadt zeigen, wie leicht Modelle erweitert werden können. Sie fanden dutzende frei downloadbare Erweiterungen, um mit gängigen Modellen Pornografie herzustellen. Offiziell hat der Anbieter mit diesen Erweiterungen nichts zu tun. Dennoch bauen sie alle auf seinem Ursprungsmodell auf.

Ermittler im Wettlauf mit der Technik

Mit der Technologie wachsen auch die Herausforderungen. Strafverfolger fürchten, dass sie künftig wertvolle Ressourcen falsch einsetzen könnten – denn: Wenn missbrauchsähnliche KI-Bilder nicht mehr erkennbar sind, müssen Ermittlungen geführt werden, obwohl kein reales Kind abgebildet ist. "Wenn wir täuschend echte Bilder sehen, müssen wir davon ausgehen, dass es reale Missbrauchsfälle gibt", sagt Markus Hartmann von der Zentralstelle Cybercrime NRW.

Einen Erfolg gibt es aber bereits zu vermelden: Das Bundeskriminalamt beteiligte sich im Februar 2025 an der ersten internationalen Operation gegen KI-generierte Kinderpornografie. Unter der Leitung von Europol wurden 273 Verdächtige aus 19 Ländern identifiziert, der Haupttäter – ein Däne - verkaufte Inhalte weltweit über eine Online-Plattform.

Gesetzgeber reagieren – aber nicht einheitlich

Juristisch bleibt der Umgang trotzdem schwierig – es gibt weiterhin rechtliche Schlupflöcher. Das EU-Parlament will ein komplettes Verbot inklusive Privatbesitz, der EU-Rat will Ausnahmen zulassen. Die IWF warnt: "Das ist der falsche Ansatz. Es löst das Problem nicht und schützt Kinder nicht." Auch die Bundesregierung kündigt an, Strafbarkeitslücken schließen zu wollen. Das Justizministerium verweist auf den Auftrag im Koalitionsvertrag, das Cyberstrafrecht zu reformieren.

Technische Gegenmaßnahmen

Auch Forschende arbeiten an Gegenmaßnahmen: Ein Team der TU Darmstadt arbeitet an "LlavaGuard" und "Safe Latent Diffusion" – Systeme, die riskante Inhalte schon während der KI-Generierung blockieren oder umwandeln. "Wir wollen Systeme bauen, die sagen: Ich generiere das nicht", erklärt KI-Professor Kristian Kersting. Einige große Bildgeneratoren haben inzwischen auch sichtbare und unsichtbare Markierungen eingebaut, um KI-Bilder erkennbar zu machen. Doch die Täter lernen schnell. "Wasserzeichen werden innerhalb weniger Tage wieder entfernt", sagt Hartmann.

"Der Missbrauch hört nicht auf"

Die Hoffnung, KI-künstliche Bilder könnten Missbrauch im echten Leben reduzieren, erfüllt sich laut Fachleuten nicht. Ermittler sprechen von einer Eskalationsspirale – KI sei höchstens Einstiegsmaterial, echte Aufnahmen bleiben gefragt.

Für Betroffene bedeutet das: Der Missbrauch endet nie. KI reproduziert alte Fotos, Kinder werden in neue Szenarien gezwungen. Eine IWF-Analystin sagt: "Wir sehen immer wieder dieselben Kinder. Die Technologie macht es unglaublich schwer, den Missbrauch zu stoppen." Die KI verlängert also den Missbrauch, statt ihn zu ersetzen. "Kinderpornografie wird nicht überflüssig", warnt Hartmann. "KI ist kein Ersatz, sondern eine neue Kategorie."

Das ist die Europäische Perspektive bei BR24.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!