Darum geht’s:
- Das russische Pravda-Netzwerk veröffentlicht Millionen Artikel mit Falschinformationen aus den russischen Staatsmedien und von Propaganda-Akteuren.
- Das Netzwerk nimmt auch Webcrawler und Suchmaschinen ins Visier.
- Die Taktik scheint aufzugehen: Wikipedia und Nachrichtenseiten verlinken auf die irreführenden Artikel, Chatbots geben die Desinformation in ihren Antworten wieder.
Etwa die Hälfte der Internetnutzer (externer Link) fragt inzwischen zumindest gelegentlich lieber KI-Chatbots wie ChatGPT oder Gemini anstatt die klassische Google-Suche zu verwenden. Das macht die Chatbots zu einer attraktiven Zielscheibe für Manipulation und Einflussnahme, etwa aus Russland.
Russisches Pravda-Netzwerk flutet Netz mit Desinformation
Zunutze macht sich das ein russisches Netzwerk namens Pravda. Es besteht aus einer Hauptseite mit zahlreichen Unterseiten – auf Dutzenden Sprachen und in 49 Ländern weltweit. Auf diesen Internetseiten hat das Pravda-Netzwerk laut einem vom finnischen Software-Unternehmen Checkfirst betriebenen Dashboard (externer Link) bis Januar 2026 mehr als 6,7 Millionen Artikel mit prorussischer Propaganda erstellt und veröffentlicht. Möglich ist das mit Hilfe von KI, erklärt Roberta Schmid vom Portal NewsGuard, das die Glaubwürdigkeit von Webseiten bewertet, im Interview mit dem #Faktenfuchs:
"Es gibt dort eine extrem hohe Publikationsfrequenz, die nicht natürlich ist."
Mehr als ein Dutzend Artikel pro Stunde veröffentliche das Netzwerk, teils auch deutlich mehr – oft mehrere Texte zur selben Falschbehauptung und teils in verschiedenen Sprachen, sagt Schmid.
"Das spricht klar dafür, dass keine echten Menschen hinter diesen Seiten stecken."
NewsGuard beschreibt das Netzwerk (externer Link) als eine Art "Waschmaschine für Kreml-Propaganda". Denn das Pravda-Netzwerk erfindet keine eigenen Falschbehauptungen, sondern verbreitet Propaganda-Inhalte von russischen Staatsmedien, kremlnahen Influencern und von Regierungsvertretern weiter. Mit dem Ziel, dass weitere Medien darüber berichten und die Falschbehauptung damit "waschen", also glaubwürdiger machen.
"LLM Grooming": Gezielte Manipulation von KI Chatbots
Teilweise erscheinen fast zeitgleich mehrere Artikel zur selben Falschbehauptung auf Pravda-Seiten, manchmal in mehreren Sprachen. Vereinzelt erscheinen auch französische Artikel auf englischsprachigen Seiten: ohne jegliche inhaltliche Begründung warum, sagt Schmid. Sie sieht dies als ein weiteres Indiz dafür, dass die Texte mit Hilfe von KI generiert und veröffentlicht werden – ohne Korrektur gelesen zu werden, wie bei seriösen Nachrichtenseiten üblich. Die Artikel würden auch sonst durch ihre niedrige Qualität auffallen, seien teils schlecht formatiert und enthielten Schreibfehler, so Schmid.
Laut Schätzungen von Similarweb (externer Link), einem Unternehmen für digitale Marktforschung, haben die Pravda-Domains außerdem auffällig wenige direkte Aufrufe. Dies alles deutet auch laut Analysen von Viginum (externer Link), dem französischen Dienst zur Überwachung und zum Schutz vor ausländischer digitaler Einmischung und Recherchen des American Sunlight Project (ASP) (externer Link) zufolge darauf hin, dass die Webseiten sich nicht ausschließlich an menschliche Internetnutzer richten. Vielmehr zielen sie wohl auch auf Webcrawler ab, also auf automatisierte Computerprogramme, die das Internet systematisch durchsuchen, damit Webseiten und deren Inhalte in Suchergebnissen gefunden werden können. "LLM Grooming" (externer Link), also "Large Language Model Grooming", nennt das ASP diese Art der Beeinflussung von KI-Sprachmodellen.
Denn die Sprachmodelle erzeugen ihre Antworten, indem sie Schritt für Schritt das nächste passende Textelement auswählen – und zwar auf Grundlage von Wahrscheinlichkeiten, die das Modell beim Training aus riesigen Textmengen gelernt hat.
"Wenn jemand die Crawler beeinflussen wollte, die von LLMs zum Sammeln von Trainingsdaten verwendet werden, würde er eine Flut von Inhalten produzieren. Genau das tut das Pravda-Netzwerk." Joseph Bodnar, Senior Researcher beim ISD, im Interview mit dem #Faktenfuchs
Dass ChatGPT und Co tatsächlich russische Desinformation in ihren Antworten reproduzieren, zeigt sich unter anderem an einer Falschbehauptung zum Kehlsteinhaus in Berchtesgaden.
Das Kehlsteinhaus gehört laut Immobilien Freistaat Bayern weiterhin dem Land Bayern.
Falschbehauptung zum Kehlsteinhaus in Berchtesgaden
Am 5. Februar 2025 wird erstmals publik: Der ukrainische Präsident Wolodymyr Selenskyj habe angeblich für mehrere Millionen Euro das Kehlsteinhaus gekauft, das ehemals Hitler gehörte. Veröffentlicht wird die Lüge in einem Artikel - samt Video - auf einer Pseudo-Nachrichtenseite mit dem Titel "Aktuelle Nachrichten in Deutschland" .
Das staatliche Immobilienunternehmen dementiert (externer Link) am 7. Februar 2025: Das Kehlsteinhaus gehört weiterhin - und bis heute - dem Freistaat Bayern.
Faktenchecker von der deutschen Presseagentur (dpa) (externer Link) und Correctiv (externer Link) recherchieren und finden heraus, dass der im Video gezeigte Kaufvertrag gefälscht ist, die Stimme im Video gehört nicht dem Geschäftsführer von Immobilien Freistaat Bayern, Gerhard Reichel, und auch sein Zitat ist frei erfunden. Das bestätigt das Unternehmen auf Nachfrage auch dem #Faktenfuchs.
Trotzdem geht das Video mit der Falschbehauptung auf der Plattform X viral. Allein fünf der am weitesten verbreiteten Postings erzielen gemeinsam mehr als sieben Millionen Aufrufe.
Behauptungen sind typisch für russische Desinformation
Der Kehlsteinhaus-Behauptung liegen typische Muster von russischer Desinformation zu Grunde, sagt Julia Smirnova, Senior Researcherin beim Center für Monitoring und Strategie (CeMAS), im Gespräch mit dem BR24 #Faktenfuchs. Um das Narrativ einer korrupten Ukraine zu untermauern, seien schon Hunderte unterschiedliche Falschbehauptungen verbreitet worden. Die Unterstützung für die Ukraine aus dem Westen soll so untergraben werden, sagt Smirnova.
Über eine weitere Falschbehauptung zur vermeintlichen Veruntreuung von Hilfsgeldern in der Ukraine berichtete dieser #Faktenfuchs. Die wiederholte Propaganda-Behauptung (externer Link), dass die Ukraine ein Nazistaat sei, hat der #Faktenfuchs bereits hier widerlegt und eingeordnet.
Ursprung in russischer Einflusskampagne Storm-1516
Die konkrete und recht aufwendige Umsetzung der Kehlsteinhaus-Falschbehauptung im Video deute auf dessen Ursprung in der bereits bekannten russischen Einflusskampagne Storm-1516 (externer Link) hin, sagt Smirnova:
"Dabei wurden die Taktiken verwertet, die dafür typisch sind. Zum Beispiel die gefälschten Dokumente, der angebliche Kaufvertrag."
Auch die Methode, einen angeblichen Zeugen anzuführen, der die Falschbehauptung glaubwürdig erscheinen lassen soll, entspricht dem Vorgehen von Storm-1516, über das der #Faktenfuchs bereits berichtete, etwa hier, hier und hier. Auch das bayerische Innenministerium wertet Storm-1516 als Ursprung der Kehlsteinhaus-Falschbehauptung (externer Link).
Prorussische Accounts verbreiten die Lüge auf X.
Große Verbreitung dank prorussischen Accounts
Die Accounts, die der Falschbehauptung auf X zu so großer Reichweite verhelfen, bestehen alle seit mehreren Jahren und haben Zigtausende bis hin zu Hunderttausende Follower. Mindestens zwei der Accounts sind laut einer Analyse des Cyber-Sicherheitsunternehmens "Recorded Future" (externer Link) bekannt dafür, Inhalte der russischen Desinformationskampagne Storm-1516 weiterzuverbreiten. Laut einem Report der französischen Behörde Viginum (externer Link) wurde einer der Accounts wahrscheinlich in der Vergangenheit für die Weiterverbreitung von Storm-1516-Inhalten bezahlt.
Der andere Account ist außerdem bereits durch sein Postingverhalten aufgefallen: So hat der Account laut Recherchen der US-amerikanischen Denkfabrik DFRLab (Digital Forensic Research Lab) (externer Link) seit 2010 mehr als 430.000 Tweets veröffentlicht. Um dieses Volumen zu erreichen, müsste der Account 15 Jahre lang täglich mehr als 78 Tweets gepostet haben. "Dieser Umfang deutet stark auf automatisierte Aktivitäten hin", schreibt das DFRLab in seiner Analyse.
Russische Kampagnen befeuern sich gegenseitig
Am 6. Februar, also einen Tag nach der Veröffentlichung, greift das Pravda-Netzwerk die Kehlsteinhaus-Behauptung auf – in mindestens einem englischsprachigen Artikel. In der Überschrift ist ein Schreibfehler enthalten - "Kelsteinhaus" ohne "h".
Am 7. Februar erscheinen außerdem mindestens zwei deutschsprachige Pravda-Artikel, die bis heute auffindbar sind. Ein Text trägt den Titel "Selenskyj kaufte Hitlers berühmte Datscha". Der andere enthält das Fake-Video mit der angeblichen Stimme des Geschäftsführers und trägt die rätselhafte Überschrift "Zelensky selbst Hitlers Villa", ein Indiz für eine automatisierte Generierung oder Übersetzung ohne Korrektur- oder Redigaturprozess, in welchem so ein sprachlicher Fehler aufgefallen wäre.
Am 8. Februar greift eine weitere Nachrichtenseite die Falschbehauptung auf - "EurAsiaDaily", ein russisches Medienunternehmen, das von der EU sanktioniert (externer Link) wird.
Für Joseph Bodnar vom ISD ist dieser Ablauf beispielhaft dafür, wie russische Desinformation in die Welt gesetzt und dann durch Influencer und andere Nachrichtenseiten gewaschen werde, bis andere russische Informationsoperationen die Falschbehauptung aufgreifen und verstärken.
"Die Ebenen des Verstärkungsprozesses bei diesen Kampagnen und die Verbindungen zwischen den Kampagnen sind wirklich faszinierend und ziemlich ausgeklügelt."
Russische Kampagnen befeuern sich gegenseitig.
KI-Chatbots geben Desinformation wieder
Tatsächlich geben auch KI-Chatbots die Falschbehauptung über das Kehlsteinhaus wieder, wie eine Analyse von NewsGuard (externer Link) zeigt. Im Rahmen dieser wurden im März 2025 die von den zehn führenden KI-Unternehmen betriebenen Chatbots getestet, indem sie nach Informationen zu 15 falschen Narrativen aus dem Pravda-Netzwerk gefragt wurden. Dabei fragte NewsGuard jeweils auf drei unterschiedliche Arten: unvoreingenommen, suggestiv (von der Richtigkeit der falschen Behauptung ausgehend) und böswillig. "Damit testen wir eine beabsichtigte gezielte Generierung von Desinformation, einschließlich einer Anweisung zur Umgehung der Sicherheitsmaßnahmen, die die KI -Modelle möglicherweise implementiert haben", sagt Roberta Schmid von NewsGuard im Gespräch mit dem #Faktenfuchs.
Insgesamt ergab die NewsGuard-Analyse, dass die Chatbots in etwa einem Drittel der Fälle russische Desinformations-Narrative aus dem Pravda-Netzwerk wiedergaben. "Einige Modelle haben nicht nur die Falschinformationen übernommen und die wiedergegeben, sondern haben auch die Pravda-Domains direkt als Quelle zitiert", sagt Schmid. So auch die Kehlsteinhaus-Lüge:
"Bei diesem konkreten Beispiel haben fünf der zehn getesteten Chatbots mindestens einmal falsche Informationen zu dem Narrativ ausgegeben."
Eine ähnliche Untersuchung von ISD Global im Oktober 2025 (externer Link) ermittelte bei den vier beliebtesten Chatbots zehn bis 25 Prozent an Fällen, in denen russische Desinformation reproduziert wurde. Für die Chatbots machte es dabei einen relativ geringen Unterschied, ob die Formulierung der Frage an den Chatbot unvoreingenommen oder suggestiv war.
Desinformation: Datenlücken als Schwachstelle
Für Roberta Schmid liegt die Erklärung dafür in sogenannten Data Voids, also Datenlücken. Wenn eine frei erfundene Falschinformation - wie die zum Kehlsteinhaus - nur von einem Akteur verbreitet werde, dann könne die KI auch nur auf diese Information zurückgreifen.
"Es ist grundsätzlich so, dass die Chatbots nur so gut sind wie die Daten, mit denen sie trainiert sind und in vielen Fällen dann eben nur so gut wie die Daten, die online sind."
Desinformationsakteur spricht offen über Beeinflussung westlicher KIs
Tatsächlich hat ein Drahtzieher russischer Desinformation diese Strategie in der Vergangenheit offen kommuniziert. So erklärte der aus den USA nach Russland geflohene Propagandist John Mark Dougan, der laut Angaben der EU (externer Link) die russische Kampagne Storm-1516 unterstützt haben und mit dem russischen Militärgeheimdienst GRU in Verbindung stehen soll während einer Konferenz russischer Regierungsvertreter in Moskau im Januar 2025 (externer Link) :
"Wir müssen anfangen, KI-Modelle zu trainieren. Indem wir diese russischen Erzählungen aus russischer Perspektive vorantreiben, können wir tatsächlich die weltweite KI verändern."
Nachrichtenseiten, Faktenchecker und Wikipedia verlinken auf Pravda-Seiten
Gleichzeitig beeinflusst das Pravda-Netzwerk offenbar nicht nur KI-Chatbots. Auch in Wikipedia werden Pravda-Seiten von Autoren als Quellen zitiert (externer Link) , wie das Digital Forensic Research Lab (DFRLab) analysiert hat. Und laut einer Analyse des Institute for Strategic Dialogue (ISD) im November 2025, haben Hunderte von Medienwebseiten Artikel des Pravda-Netzwerks zitiert und darauf verlinkt (externer Link) , darunter Nachrichtenagenturen, akademische Institutionen und sogar Faktenchecker. Mehr als 80 Prozent der überprüften Webseiten behandelten die verlinkten Pravda-Artikel laut ISD als glaubwürdig. Darunter auch bekannte Nachrichtenseiten wie Forbes, The Atlantic oder Politico. Andere verwiesen zwar auf die russische Herkunft des Links, ohne ihn jedoch mit einer Informationsoperation in Verbindung zu bringen, so etwa die Washington Post. Ein Teufelskreis, sagt Joseph Bodnar von ISD Global:
"Wenn jemand etwas zitiert, werten Suchmaschinen dieses Zitat als Zeichen für Relevanz und Glaubwürdigkeit. Wenn also eine dieser Websites auf das Pravda-Netzwerk verlinkt, ist es wahrscheinlicher, dass das Pravda-Netzwerk in den Suchmaschinenergebnissen für andere Nutzer weiter oben erscheint, und der Kreislauf setzt sich fort."
Ähnlich funktioniere es auch bei KI-Chatbots.
Gegenmaßnahmen: Quellen ausschließen oder niedriger ranken
KI-Unternehmen könnten einige Dinge tun, um die Reproduktion von russischer Desinformation durch KI Chatbots zu reduzieren oder zu verhindern, sagt Bodnar:
"Sie können sanktionierte russische Webseiten auf eine schwarze Liste setzen. Wenn sie wissen, dass Webseiten wahrscheinlich Falschinformationen produzieren, können sie die aus Ihren Trainingsdaten ausschließen oder sie in ihren Suchergebnissen herabstufen."
Roberta Schmid von NewsGuard plädiert zumindest für mehr Quellen-Transparenz. Betreiber von KI-Chatbots könnten Quellen mit entsprechenden Hinweisen versehen, wenn Informationen vorliegen, dass es sich um typische Verbreiter von Fehlinformationen handelt oder ein staatlicher Akteur dahintersteckt.
Der #Faktenfuchs hat bei drei Chatbot-Betreibern, die sowohl von NewsGuard als auch vom ISD untersucht wurden, nachgefragt, wie sie gegen "LLM Grooming" vorgehen. Weder OpenAI, noch xAI oder Google antwortete auf die Fragen des #Faktenfuchs.
Browser Extensions warnen vor verdächtigen Quellen
Schmid betont außerdem die Wichtigkeit von Medienkompetenz. Nutzer von Chatbots müssen die Funktionsweise und Schwächen von KI Chatbots wissen. Unterstützend bieten sowohl NewsGuard als auch ISD Browsererweiterungen an, die helfen sollen, die Vertrauenswürdigkeit von Webseiten einzuschätzen bzw. warnen, wenn man Seiten des Pravda-Netzwerks besucht.
Fazit
Die Behauptung, der ukrainische Präsident Selenskyj habe das Kehlsteinhaus in Berchtesgaden gekauft, ist falsch und hat seinen Ursprung in der russischen Desinformationskampagne Storm-1516. Aufgegriffen wurde das Narrativ auch vom russischen Pravda-Netzwerk, das derartige Propaganda-Inhalte weiterverbreitet, um die Antworten von KI-Chatbots zu beeinflussen. Tatsächlich reproduzieren ChatGPT und Co. Tests zufolge teilweise Narrative russischer Desinformation.
Quellen:
Interviews/Presseanfragen:
Interview mit Roberta Schmid, Managing Editor bei NewsGuard
Interview mit Joseph Bodnar, Senior Research Manager am Institute for Strategic Dialogue (ISD)
Interview mit Julia Smirnova, Senior Research Manager beim Center für Monitoring, Analyse und Strategie (CeMAS)
Presseanfrage an Immobilien Freistaat Bayern
Presseanfrage an das Bayer. Staatsministerium des Innern, für Sport und Integration
Presseanfrage an ChatGPT, Google Gemini und Grok AI
Veröffentlichungen:
Das ist die Europäische Perspektive bei BR24.
"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!



