Zuletzt sorgte der KI-Chatbot "Grok" für Schlagzeilen: Tausende manipulierte Nacktbilder entstanden, weil Nutzer auf der Plattform X unter ein harmloses Foto "undress her" kommentierten. Innerhalb von Sekunden erzeugte die Künstliche Intelligenz sexualisierte Bilder realer Personen – sogenannte Deepnudes. Inzwischen wurde die Funktion gesperrt. Doch über frei zugängliche Apps – sogenannte Nudify-Apps – lassen sich weiterhin per Mausklick täuschend echte Nacktbilder erstellen, auch von Minderjährigen. UNICEF, ECPAT und Europol sprechen in einer aktuellen Studie [externer Link] von einer neuen Dimension sexueller Gewalt gegen Kinder.
Das Problem: Nudify-Apps sind in App-Stores frei zugänglich
Allein im Januar 2026 waren laut Tech Transparency Project 55 entsprechende Apps im Google Play Store und 47 im Apple App Store verfügbar – getarnt als harmlose KI-Tools. Weltweit sollen diese Apps über 705 Millionen Mal heruntergeladen worden sein [externer Link].
Die Internet Watch Foundation meldet für das erste Halbjahr 2025 einen Anstieg von rund 400 Prozent bei KI-generierten Darstellungen sexualisierter Gewalt gegen Kinder [externer Link]. Experten gehen von einem noch größeren Dunkelfeld aus.
Was Eltern und Betroffene tun können
Solange diese Apps frei zugänglich sind, kann jedes Kind potenziell betroffen sein. Besonders riskant sind öffentlich einsehbare Profile, auf denen Kinderbilder geteilt werden – selbst Profil- oder Statusbilder oder Chats auf Plattformen wie WhatsApp können als Vorlage dienen. Lea Peters, Referentin für Kinderschutz im digitalen Raum bei ECPAT Deutschland, empfiehlt daher: Eltern sollten möglichst keine Bilder ihrer Kinder veröffentlichen. Auch das Versenden von Bildern über WhatsApp sollte überdacht werden, denn "auch im familiären oder sozialen Umfeld kann es Täter geben." Und falls Kinder schon eigene Accounts besitzen, können Eltern die Privatsphäre-Einstellungen prüfen.
Kommt es dennoch zu einem Vorfall, sollten Betroffene wissen, welche rechtlichen Schritte möglich sind – und wie Eltern handeln sollten:
1. Ruhe bewahren und Beweise sichern
Lea Peters (ECPAT Deutschland) rät beim Entdecken eines KI-generierten sexualisierten Deepfakes, nicht überstürzt zu handeln. Wichtig sei zunächst, Beweise zu sichern: Screenshots, Profilnamen, URLs, Zeitangaben oder Chatverläufe dokumentieren. Diese Belege können entscheidend sein, um Bilder entfernen zu lassen oder rechtliche Schritte zu prüfen.
💬 BR24-User wie "Elkeanja" oder "Cuparius" haben in der Kommentarspalte nachgefragt, ob ein Screenshot von kinderpornografischen Inhalten überhaupt erlaubt ist – auch wenn es nur zum Beweis dient. Das Team von "Dein Argument" hat ergänzt:
Wichtig ist, dass man nicht von dem Nacktbild selbst einen Screenshot anfertigt. Das bestätigt auch die Polizei auf BR24-Nachfrage. Screenshots sollen nur von dem Drumherum gemacht werden, etwa von Kommentaren oder der URL. Michaela Landgraf, Fachanwältin für Strafrecht beim Bayerischen Anwaltverband, weist darauf hin: Herstellung, Besitz und Weiterleitung von "kinderpornografischem Inhalt" [externer Link] ist strafbar. Auch bei KI-generierten Inhalten. Denn auch zu Beweiszwecken entspricht ein Screenshot vom Bild der Erstellung solchen Materials. Stattdessen der Rat der Anwältin: Den Link zum Beitrag bei Meldeportalen wie soundswrong.de melden oder, wenn ein entsprechendes Foto in einem Gruppenchat auftaucht, direkt mit dem Handy zur Polizei gehen. Vorher können auch Hilfsangebote wie "Juuuport" kontaktiert werden, die bei der Einschätzung helfen können.
Die jetzige Gesetzeslage sei zwar "irrsinnig", so Landgraf, weil Helfer zum Täter werden könnten. Aber so soll verhindert werden, dass sich Inhalte weiter im Netz verbreiten. 💬
2. Inhalte melden und Plattformen in die Pflicht nehmen
Im nächsten Schritt sollten die Inhalte bei der jeweiligen Plattform gemeldet werden, auf der sie verbreitet werden. Große Anbieter haben Meldewege für nicht einvernehmliche sexualisierte Inhalte oder Darstellungen Minderjähriger. Zusätzlich können Betroffene oder Eltern Inhalte bei jugendschutz.net [externer Link] melden – auch anonym. Die Stelle prüfe den Fall und leite ihn gegebenenfalls an Plattformen oder Strafverfolgungsbehörden weiter.
3. Anzeige erstatten – ja oder nein?
Juristisch sind sexualisierte KI-Deepfakes von Kindern strafbar. "Entscheidend ist nicht, ob ein Bild echt ist oder von einer KI erzeugt wurde, sondern wie realistisch es wirkt und wie es verbreitet wird", sagt Rechtsanwalt Daniel Kötz. Realistisch wirkende Darstellungen können unter Tatbestände der Kinder- oder Jugendpornografie fallen. Auch das Weiterleiten oder Speichern entsprechender Inhalte sei strafbar. Dennoch empfiehlt Lea Peters, vor einer Anzeige zunächst Beratung in Anspruch zu nehmen. Angebote wie "juuuport" [externer Link] oder "Nummer gegen Kummer" [externer Link] beraten anonym und kostenfrei. Dort könne gemeinsam geklärt werden, welche Schritte für das betroffene Kind sinnvoll sind.
4. Technische Hilfsangebote nutzen
Ein Angebot wie "Take It Down" des National Center for Missing & Exploited Children [externer Link] kann helfen, die weitere Verbreitung einzudämmen. Dabei werden gemeldete Bilder in einen digitalen Fingerabdruck (Hash) umgewandelt und mit Datenbanken abgeglichen, um identische Inhalte aufzuspüren und zu löschen. Eine Garantie, dass Inhalte vollständig aus dem Netz verschwinden, gebe es jedoch nicht, sagt Peters.
5. Mit dem Kind sprechen ohne Schuldzuweisungen
Deepnudes entstehen häufig aus harmlosen Alltagsbildern oder allein auf Basis von Beschreibungen. Wichtig sei, dem Kind klar zu vermitteln: "Du hast nichts falsch gemacht" und "Die Verantwortung liegt bei den Täterinnen und Tätern." Fachleute sprechen hier von digitaler sexualisierter Gewalt.
Schutzlücken bei Deepfakes?
Sexualisierte KI-Deepfakes von Kindern erfüllen schon heute Straftatbestände – doch das Recht hinkt der technischen Entwicklung hinterher. Besonders beim Schutz von Erwachsenen bleiben Lücken. Das Strafrecht zielt vor allem auf reale Missbrauchsdarstellungen, nicht auf KI-erzeugte Bilder. Ein klares, ausdrückliches Verbot sexualisierter Deepfakes fehlt bislang. Justizministerin Stefanie Hubig kündigte eine rechtliche Nachschärfung an, um Betroffene von sexualisierten Deepfakes besser zu schützen.
Transparenzhinweis: Auf Hinweis mehrerer BR24-User haben wir den Beitrag am 16. Februar, 15 Uhr im Rahmen unseres Community-Formats "Dein Argument" ergänzt. Wir haben präzisiert, dass es wichtig ist, nicht vom Nacktbild selbst einen Screenshot zu machen, auch nicht zu Beweiszwecken.
Das ist die Europäische Perspektive bei BR24.
"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!
