Täuschend echte Videos von echten Personen sind mit KI immer leichter zu erschaffen (Symbolbild)
Täuschend echte Videos von echten Personen sind mit KI immer leichter zu erschaffen (Symbolbild)
Bild
Täuschend echte Videos von echten Personen sind mit KI immer leichter zu erschaffen (Symbolbild)
Bildrechte: dpa/Jonathan Short
Schlagwörter
Bildrechte: dpa/Jonathan Short
Audiobeitrag

Täuschend echte Videos von echten Personen sind mit KI immer leichter zu erschaffen (Symbolbild)

Audiobeitrag
> Netzwelt >

Taylor Swift nackt: Was tut die Politik gegen Deepfakes?

Taylor Swift nackt: Was tut die Politik gegen Deepfakes?

Was früher Know-how und Zeit brauchte, wird mit KI zum Kinderspiel: Videos fälschen. Kürzlich zeigte ein Fake-Video eine blankziehende Taylor Swift, doch treffen kann es jeden. Nicht zuletzt Bayerns Regierung will etwas tun, doch es ist kompliziert.

Über dieses Thema berichtet: BR24 Radio Nachrichten am .

Taylor Swift steht in einem silber-glänzenden Kleid mit ausgestreckten Armen da, hinter ihr Palmen, um sie herum eine feiernde Menge. Unter hörbarem Jubel reißt sie sich das Kleid vom Leib und tanzt oberkörperfrei und aufreizend herum. Das ist nie passiert.

Doch es gibt ein Video davon. Eine Autorin der US-Technik-Website "The Verge" (externer Link) hat es als Experiment mit Hilfe der KI von Elon Musk generiert (und zensiert hochgeladen). Alles, was sie dafür brauchte, war ein iPhone und ein 30-Dollar-Abo für die KI-App.

Kinderleicht Menschen entblößen

Dass es nie einfacher war, Menschen nackt und/oder pornographisch darzustellen, beschreibt auch der Tech-Autor Brian X. Chen in einem aktuellen "New York Times"-Beitrag (externer Link), in dem er erklärt, warum er sich entschieden hat, keine Bilder seiner kleinen Tochter ins Internet zu stellen.

Fake-Nacktbilder seien nichts Neues, aber früher hätte es viel Können und Zeit gebraucht, um sie etwa mit Photoshop realistisch zu erzeugen. Opfer seien daher meist Prominente gewesen. KI-"Nudifier"-Apps hätten das geändert. Heute reiche das Hochladen eines Bildes auf einer Website. Und diese digitalen Entblößungs-Dienste werden durchaus genutzt, wie Chen zeigt, etwa an US-Highschools.

EU für Transparenz

In den USA hat kürzlich der sogenannte "Take It Down Act" unter anderem das ungefragte Posten von Nackt-Deepfakes bundesweit unter Strafe gestellt. Und in Deutschland? Auch hier gibt es einige politische Initiativen, die sich des Themas annehmen – auf europäischer, bundesdeutscher und bayerischer Ebene.

So beschäftigt sich etwa der EU-weite "AI Act", der bis 2026 schrittweise Anwendung finden soll, auch mit dem Thema Deepfakes. Diese werden dort unter KI-Systemen mit begrenztem Risiko verbucht. Das heißt: Wer Deepfakes postet, muss transparent machen, dass es sich um einen mit KI-erstellten Inhalt handelt. Verboten sind Deepfakes per se aber nicht.

Bund will Rechtslücken schließen

Zugleich will die schwarz-rote Bundesregierung sich dem Thema annehmen. Im Koalitionsvertrag ist zu lesen, dass sie das Cyberstrafrecht reformieren und Strafbarkeitslücken schließen wolle, auch bei Deepfakes.

Auf BR24-Anfrage erklärt ein Sprecher des Bundesjustizministeriums, dass man das Thema sehr ernst nehme und derzeit eine Umsetzung dieser Ziele aus dem Koalitionsvertrag prüfe. Er verweist zudem darauf, dass das Verbreiten missbräuchlicher Deepfakes schon jetzt strafrechtlich verfolgt werden kann, etwa als Verleumdung oder als Verletzung von Persönlichkeits- oder Urheberrechten.

Bayern bringt Gesetzentwurf ein

Konkretere Pläne für eine Deepfake-Regulierung in Deutschland kommen derweil aus Bayern. Schon im vergangenen Jahr hatte der Bundesrat auf Initiative des Freistaats einen Gesetzentwurf eingebracht, der das Veröffentlichen von Deepfakes in vielen Fällen unter Strafe stellen würde. Bis zu fünf Jahre Freiheitsstrafe sind vorgesehen.

Bayerns Justizminister Georg Eisenreich (CSU) dazu gegenüber BR24: "Das geltende Recht ist hier unklar, unübersichtlich und lückenhaft. Es gibt eine Vielzahl an Vorschriften, die das zunehmende Problem nur in Teilaspekten erfassen." Zum EU-AI-Act erklärt sein Ministerium, dass hier lediglich offengelegt werden müsse, dass Inhalte künstlich erzeugt oder manipuliert wurden – und kein strafrechtlicher Schutz gewährleistet werde.

Zugleich würden laut dem Ministerium "immer mehr" Menschen, besonders Frauen und Mädchen, Opfer solcher Deepfakes. Konkrete Zahlen zu Verbrechen mit Hilfe KI-manipulierter Bilder kann Bayerns Landeskriminalamt auf BR24-Anfrage allerdings nicht nennen. Der Bundesrats-Gesetzentwurf wird nun im Bundestag behandelt.

Komplizierte Verfolgung

Zugleich bleibt bei der Regulierung solcher digitaler Phänomene so und so oft die Frage nach der Strafverfolgung im Raum. Darauf weist auch Technologie-Forscher Murat Karaboga in einer Analyse der EU-KI-Regeln für die Bundeszentrale für politische Bildung (externer Link) hin: Angesichts der Vielzahl von KI-generiertem Material sei äußerst fraglich, dass die zuständigen Behörden in der Lage sein werden, zu erkennen, wann einem Fall nachgegangen werden müsste und wann nicht.

Sowieso sei oftmals erforderlich, dass der Betroffene überhaupt mitbekommt, dass er zum Opfer eines Deepfakes wurde und entsprechende Schritte einleitet. Und selbst wenn das geschieht, bleibt die Frage, inwiefern ermittelbar ist, wer hinter der digitalen Veröffentlichung eines Fotos oder Videos steckt.

Das ist die Europäische Perspektive bei BR24.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!