Eine Kachel mit drei Screenshots, zwei von KI-generierten Kriegsvideos, eine von einer Bildschirmaufnahme eines Kriegs-Computerspiels.
Eine Kachel mit drei Screenshots, zwei von KI-generierten Kriegsvideos, eine von einer Bildschirmaufnahme eines Kriegs-Computerspiels.
Bild
Fake, aber nicht unbedingt KI-generiert: Derzeit kursieren im Netz Videos, die angeblich iranische Raketenangriffe und Gefechte zeigen.
Bildrechte: x.com/a_abdulruhman, x.com/AytSJNEng, x.com/Wisdom_HQ; Montage: BR
Schlagwörter
Bildrechte: x.com/a_abdulruhman, x.com/AytSJNEng, x.com/Wisdom_HQ; Montage: BR
Bildbeitrag

Fake, aber nicht unbedingt KI-generiert: Derzeit kursieren im Netz Videos, die angeblich iranische Raketenangriffe und Gefechte zeigen.

Bildbeitrag
>

KI-Videos aus Tel Aviv und Videospiele: Krieg-Fakes aus Nahost

KI-Videos aus Tel Aviv und Videospiele: Krieg-Fakes aus Nahost

Kriege bedeuten stets auch: falsche Bilder und Videos sind im Umlauf. Die Verbreiter machen sich zunutze, dass Krieg dynamisch und ungewiss ist. Für ihre Falschbehauptungen nutzen sie Material aus Videospielen oder KI-Fakes. Ein #Faktenfuchs.

Darum geht’s:

  • Seit dem 28. Februar greifen Israel und die USA den Iran an, dieser attackiert Ziele im gesamten Nahen Osten.
  • Es wird falsches Bildmaterial verbreitet, das sinkende US-Flugzeugträger oder Schiffe im Gefecht zeigen soll.
  • Diese Videos sind aber nicht wirklich gefilmt worden: Sie wurden mit KI-Werkzeugen erstellt oder sind Videospielen entnommen.

Ein brennender Flugzeugträger, der im Meer versinkt. Ein Kampfhubschrauber, der eine Lkw-Kolonne unter Feuer nimmt. Eine gewaltige Explosion mitten in Tel Aviv. All das kann echt wirken – und ist doch komplett erfunden. Seit vergangenem Samstag, dem 28. Februar, greifen Israel und die USA den Iran an. Dieser antwortet seinerseits mit Angriffen auf Israel und die Golfstaaten. Bisher sind vor allem Angriffe aus der Luft bekannt, sprich mit Flugzeugen oder Flugkörpern wie Drohnen oder Raketen.

In solchen unübersichtlichen Situationen verbreitet sich regelmäßig auch Bildmaterial, das gefälscht oder aus dem Kontext gerissen zusammen mit Falschbehauptungen verbreitet wird. Beispielsweise werden Videospiele genutzt, die Kriegshandlungen simulieren. Solche Gaming-Szenen werden dann als vermeintlich aktuelle, echte Videos verbreitet. In diesem #Faktenfuchs lesen Sie, an welchen Merkmalen Sie die Simulation von der Realität unterscheiden können.

Material aus Videospielen wird mit Falschbehauptung verbreitet

In einem Video, das über drei Millionen Mal auf der Plattform X gesehen wurde, sieht man, wie Kampfhubschrauber eine Lkw-Kolonne attackieren. Dazu wird in dem Post impliziert, US-Streitkräfte seien hier beteiligt.

Einige Details deuten aber darauf hin, dass es sich um Material aus einem Videospiel handelt. Die Kameraführung ist fast immer zentriert auf einen Hubschrauber und folgt ihm ohne Ruckler oder Fehler. Die Oberfläche beispielsweise des Bodens oder des Bewuchses (in Videospielen "Textur" genannt) erscheint undetailliert und flächig. Die Darstellung eines Lastwagens verändert sich innerhalb extrem kurzer Zeit, von heil zu ausgebrannt, und erst hinterher erscheint eine Explosion – ein klarer Hinweis auf eine Simulation.

Bildrechte: x.com/Wisdom_HQ; Montage: BR
Bildbeitrag

Anders als in Posts auf X behauptet, zeigen diese Bilder keine echten Gefechte – sondern Szenen aus einem Videospiel.

"Falscher" Kampfhubschrauber belegt falsche Behauptung

Das gezeigte militärische Gerät passt auch nicht zum aktuellen Konflikt im Mittleren Osten. Ein zu sehender Kampfhubschrauber erinnert stark an das Modell Ka-52 des russischen Herstellers Kamov, zum Beispiel wegen der zwei Rotoren, der "Nase" und der Cockpithaube.

Nach Angaben des Fachmediums "FlightGlobal" verwenden nur Russland und Ägypten diesen Kampfhubschrauber, beide sind in die bisherigen Kampfhandlungen nicht verwickelt. Es sind keinerlei Berichte bekannt, dass die US-Armee den Ka-52 verwenden würde.

Angebliches US-Schiff sieht veraltet und simuliert aus

Sieben Millionen Mal wurde beispielsweise ein Video auf der Plattform X angezeigt, das laut Überschrift Gefechte zwischen einem iranischen Flugzeug und einem US-Schiff zeigt. Darin sieht man ein Schiff, das mit mehreren Flugabwehrgeschützen auf ein Flugobjekt feuert. Das Flugobjekt ist nicht zu identifizieren, wird getroffen und stürzt in Richtung des Schiffes. Mehrere Details belegen in der Gesamtschau, dass das Video nicht real sein kann – sondern aus einem Videospiel stammt.

Bildrechte: x.com/pa_codes; Montage: BR
Bildbeitrag

Auch dieses Video zeigt keine echten Kämpfe zwischen den USA und dem Iran, sondern Aufnahmen aus einem Videospiel.

1) Die Bildqualität: Die Wasseroberfläche, zum Beispiel die Bugwelle des Schiffes, oder die Rauchwolken an Bord des Schiffes wirken zu "flächig" und undetailliert. Auch Personen, die Flugabwehrgeschütze an Bord des Schiffes bedienen, wirken unbeweglich und austauschbar.

2) Das gezeigte Schiff ähnelt keinen modernen US-Schiffen: Das Schiff in dem Video hat mindestens zwei Drillings-Geschütztürme und mehrere bemannte Flugabwehrgeschütze. Eine solche Bewaffnung hat kein aktives Schiff der US-Marine im Mittleren Osten. Im Mittelmeer und Arabischen Meer befinden sich zwei Flugzeugträger, die normalerweise in Kampfgruppen mit weiteren Schiffen und U-Booten zusammen operieren. In den Kampfgruppen befinden sich laut Angaben der US-Marine folgende Überwasserschiffe: die Flugzeugträger selbst, Lenkwaffenzerstörer und Lenkwaffenkreuzer.

Nach einem Tracker der NGO United States Naval Institute befinden sich neben den Kampfgruppen auch Küstenkampfschiffe in der Region. Keiner dieser modernen US-Schiffstypen hat eine solche Bewaffnung, wie in dem Video gezeigt. Das Schiff in dem Video ähnelt mit seiner Bewaffnung zum Beispiel viel eher Schlachtschiffen etwa aus dem Zweiten Weltkrieg. Auch deswegen liegt der Schluss nahe: Game-Material statt Realität.

Entwickler: Geringe Auflösung und Personenbewegungen können Games verraten

Dass Ausschnitte aus Videospielen in Krisen- oder Extremsituationen als echt ausgegeben werden, ist ein bekanntes Phänomen. Zum Beispiel aus dem Spiel "War Thunder" oder aus "Arma 3" des tschechischen Entwicklers Bohemia Interactive. Bohemia Interactive bietet ebenso Gefechtssimulationen für die Industrie und das Militär an. Die Entwickler haben 2023 einige Tipps veröffentlicht, wie sich solche Falschbehauptungen erkennen lassen.

Material aus Videospielen habe zum Beispiel eine geringere Auflösung als aktuelle Smartphones. Vorsichtig sein sollte man laut Bohemia, falls keine Menschen zu sehen sind: Denn es sei immer noch sehr schwierig, die Bewegung von Menschen in Videospielen realistisch darzustellen. Achten sollte man ebenso auf Explosionen, Rauch, Feuer und Staub – denn mit einer naturgetreuen Darstellung hätten Videospiele auch heutzutage Probleme. Da die genannten Punkte schon einige Jahre alt sind, können sie ein Hinweis, müssen aber kein eindeutiges Erkennungsmerkmal sein.

Viraler KI-Fake: Raketeneinschläge in Tel Aviv

Neben Bildschirmaufnahmen aus Videospielen in einem falschen Kontext hat der #Faktenfuchs auch mehrere mit Künstlicher Intelligenz (KI) generierte Videos auf Social Media gefunden, die vorgeben, Raketeneinschläge in Tel Aviv zu zeigen. Auch das ist mittlerweile typisch für Inhalte, die sich in Krisensituationen auf Social Media verbreiten.

Vor allem ein Video lief reichweitenstark auf Social Media, es wurde mehrfach auf X, Instagram, Facebook und TikTok geteilt. Es soll laut den Verbreitern den Einschlag mehrerer Raketen in Tel Aviv zeigen. Im Vordergrund ist ein Wohnviertel zu sehen, im Hintergrund mehrere Hochhäuser.

Bildfehler: Deformierte Solarpanels und fehlerhafte Flagge

In dem Video finden sich mehrere Anzeichen dafür, dass es mittels KI generiert wurde. So sind auf den Wohnhäusern deformierte Solarpanels zu sehen, auch einige Autos auf der Straße wirken unförmig. Teile eines Krans, der auf einem der Hochhäuser im Hintergrund zu sehen ist, erscheinen erst im Laufe des Videos aus dem Nichts. Einen echten Ort in Tel Aviv zeigt das Video aller Wahrscheinlichkeit nach nicht, das bestätigt auch die Einschätzung des ARD-Studios Tel Aviv. Dem #Faktenfuchs schreiben die Korrespondenten dazu auch: "Die Gebäude in Tel Aviv sehen nicht so gleichförmig aus".

Aufgenommen worden sein soll das Video von einem Balkon aus, auf dem eine Israel-Flagge zu sehen ist. Die Flagge weist ebenfalls Fehler auf, ihr fehlt der obere weiße Streifen, am rechten Rand der Flagge ist derweil ein vertikaler blauer Streifen zu sehen, für den es keine logische Erklärung gibt.

Bildrechte: x.com/a_abdulruhman; Montage: BR
Bildbeitrag

Deformierte Solarpanels, fehlerhafte Flagge: Mehrere Hinweise zeigen, dass dieses Video KI-generiert ist.

X-KI-Chatbot Grok behauptet fälschlicherweise KI-Video sei authentisch

Die Rauchentwicklung infolge der angeblichen Raketeneinschläge wirkt zudem unnatürlich. Die Indizien dafür, dass es sich um einen KI-Fake handelt, sind mit Blick auf Details also zu erkennen. Viele User auf X zogen den Plattform-eigenen KI-Chatbot "Grok" zurate und fragten ihn, ob es sich um ein echtes Video oder KI handele.

Auch bei mehrmaligem Nachfragen beteuerte Grok am Dienstag fälschlicherweise, das Video sei echt und bezog sich auf übereinstimmende Medienberichte über Raketeneinschläge in Tel Aviv. Dass es Raketenangriffe gab, stimmt auch, aber besagtes Video zeigt diese nicht. Die Kollegen aus dem ARD-Studio Tel Aviv schreiben, dass es "solche geballten Angriffe mit mehreren Raketen" und derartige Zerstörungen in den vergangenen Tagen nicht gegeben habe.

Die falsche Bestätigung von Grok für die Echtheit nutzen wiederum weitere Accounts, um das Video zu verbreiten. Auch die Verbreitung dieses KI-Videos könnte ein Grund dafür sein, warum X die Regeln für sein Bezahlprogramm für Premium-Nutzer kurzfristig änderte. Wer KI-Material eines bewaffneten Konfliktes teile und es nicht entsprechend kennzeichne, werde für 90 Tage von dem Programm suspendiert, verkündete X-Produktleiter Nikita Bier am Dienstagnachmittag.

KI-Fake aus Tel Aviv wird Millionen Usern angezeigt

Anschließend wurden viele Posts mit dem KI-Raketenangriff gelöscht, einige sind aber auch am Mittwoch noch online – auch auf Instagram. Das Video wurde den Plattformdaten zufolge alleine durch einen Post auf Instagram mehr als drei Millionen Mal angeschaut.

Auch weitere, sehr ähnliche Videos kursieren und behaupten ebenfalls, Raketeneinschläge in Israel zu zeigen. Auch in diesen Videos sind häufig Israel-Flaggen zu sehen, die zum Teil ebenfalls Inkonsistenzen aufweisen. In einem KI-Video, das vorgibt, eine Explosion an einem Hafen kurz nach Sonnenuntergang zu zeigen, verschwinden Teile der Flagge beim Flattern. Sehr deutlich auf KI weist auch die dort zu sehende Schnellstraße hin, auf der bei genauer Betrachtung mehrere Autos auf einmal verschwinden. All das sind typische Anzeichen für den Einsatz von Künstlicher Intelligenz bei der Erstellung.

Bildrechte: x.com/SilentlySirs, x.com/IranUpdatesNow; Montage: BR
Bildbeitrag

Auch diese Videos von angeblichen Raketeneinschlägen in Tel Aviv sind KI-generiert. Auffällig: Auch hierauf sind Israel-Flaggen zu sehen.

Weitere KI-Fakes über Israel mit verräterischer Tonspur

Bei einem weiteren Video, das eine Küste und einen Hafen bei Nacht zeigt und ebenfalls von einem Balkon aufgenommen wurde, gibt es neben ins Nichts verlaufenden Seilen noch einen weiteren Hinweis: die Tonspur. In dem Video ist der angebliche Einschlag einer Rakete zu sehen, auf der anderen Seite eines Hafens. Die Entfernung zwischen dem Ort der Kamera und dem Einschlagsort beträgt mindestens mehrere hundert Meter, gemessen an der Perspektive und der Größe der Gebäude. Ein Knall ist nahezu synchron mit dem Aufkommen der Explosion zu sehen. Das ist ein logischer Fehler.

Denn Schallwellen bewegen sich mit rund 343 Metern pro Sekunde fort. Der Einschlag müsste in einem realistischen Szenario also auf Grund der Entfernung erst mehrere Sekunden später zu hören sein. In mehreren Videos, die sich der #Faktenfuchs angeschaut hat, passen die Inhalte der Tonspur nicht zu dem, was im Bild zu sehen ist. Außerdem lassen sich markante Gebäude nicht identifizieren. Dass es sich auch bei diesen Videos nicht um echte Aufnahmen aus Tel Aviv handelt, bestätigt auch das ARD-Studio in Tel Aviv. In den Videos sind Hafenkräne zu sehen, die es dort so nicht gebe.

Viele der KI-Videos ähneln sich in mehreren Aspekten

Auffällig ist bei diesen drei Videos auch: Sie sind alle zehn Sekunden lang und bestehen aus jeweils zwischen 300 und 310 Frames – also einzelnen Bildern. Mehrere Videos, die der #Faktenfuchs überprüft hat, waren auf den Frame genau gleich lang. Das ist zwar alleine kein zweifelsfreier Beleg, kann jedoch ein Indiz dafür sein, dass hier dasselbe KI-Tool bei der Generierung zum Einsatz gekommen ist. Ebenfalls sehr unwahrscheinlich ist, dass Handy-Videos von echten Raketeneinschlägen in so hoher Zahl den Einschlag derart mittig und fokussiert abbilden, wie im Falle dieser Videos.

Neben den angeblichen Raketeneinschlägen in Tel-Aviv finden sich auch zahlreiche KI-Videos, die angebliche Angriffe auf Dubai oder Bahrain zeigen sollen. Insgesamt geben eine Vielzahl der KI-Inhalte vor, sie würden entweder Angriffe auf Israel oder verbündete Länder der USA zeigen.

Bildrechte: x.com/TheBritLad, x.com/TheoUw1; Montage: BR
Bildbeitrag

Auch verbündete Länder der USA sind Ziele von Fakes. Hier wird etwa behauptet, dass Wolkenkratzer in Dubai und in Bahrain getroffen worden seien.

Versenkter US-Flugzeugträger ist ein KI-Fake

Ein weiteres Fake-Video, das viele Indizien für KI-Generierung aufweist, zeigt einen brennenden Flugzeugträger in Schieflage im Wasser. Um das Kriegsschiff herum schwimmen Löschboote sowie Kampfjets, die offenbar von dem Schiff gefallen sein sollen. In einem X-Post, der mehr als drei Millionen Mal angesehen wurde, wird behauptet, das Video zeige den US-Flugzeugträger "Abraham Lincoln", der von iranischen Raketen getroffen worden sei.

Der Flugzeugträger befindet sich zwar tatsächlich im Mittleren Osten. Die Merkmale des Flugzeugträgers im Video stimmen allerdings nicht mit authentischen Fotos des Schiffs überein. Die Aufbauten auf dem Deck des Schiffs, in dem etwa die Kommandobrücke ist, befinden sich auf der falschen Seite. Das Video könnte zwar gespiegelt sein, doch noch ein weiterer Anhaltspunkt deutet auf einen Fake hin. Auf dem Video sind weiße Linien auf dem Deck des Flugzeugträgers an Stellen zu sehen, an denen auf einer aktuellen Aufnahme des Schiffes keine Linien sind. Der offensichtlichste Hinweis auf einen Fake: Die Flugzeuge im Wasser neben dem Flugzeugträger sind unrealistisch unförmig.

Bildrechte: x.com/Ayt5JNEng; Montage: BR
Bildbeitrag

Deformierte Flugzeuge, geringe Auflösung: Dieses Video eines angeblich sinkenden Flugzeugträgers wurde KI-generiert.

Die Auflösung des Videos ist zudem sehr schlecht. Auch das kann ein Indiz für einen KI-Fake sein: Eine schlechte Videoqualität soll häufig offensichtliche Bildfehler von KI-Videos verschleiern.

Die iranischen Revolutionsgarden behaupteten am Sonntag, sie hätten die "USS Abraham Lincoln" tatsächlich mit vier ballistischen Raketen getroffen. Das zuständige Regionalkommando der US-Streitkräfte für den Nahen Osten, dementierte das auf X: "Die Lincoln wurde nicht getroffen. Die abgeschossenen Raketen kamen nicht mal in ihre Nähe." Die USA verlegten den Flugzeugträger im Januar 2026 in den Persischen Golf, der unmittelbar an den Iran grenzt.

Fazit

Seit dem Angriff der USA und Israel auf den Iran am 28. Februar und den anschließenden Attacken Irans auf Ziele im gesamten Nahen Osten kursieren im Netz Fake-Videos, die angebliche Raketeneinschläge und Gefechte zeigen.

Darunter sind KI-generierte Videos, die neben Bild- und Logikfehlern in Details auffällige Gemeinsamkeiten aufweisen: Viele dieser Videos sind nahezu auf den Frame genau gleich lang, was auf die Verwendung desselben KI-Tools hinweist. Doch nicht alle Fakes sind mit künstlicher Intelligenz erstellt: Viele kursierende Videos zeigen Bildschirmaufnahmen aus Videospielen. Auch das ist eine bekannte Methode der Falschinformation, die schon aus früheren Kriegssituationen bekannt ist.

Das ist die Europäische Perspektive bei BR24.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!