Darum geht's:
- Der KI-Chatbot "Nexiqa" bezeichnet sich als "kritischste KI der Welt", antwortet auf Gesundheitsfragen aber mit gesundheitsgefährdender Falschinformation.
- In seinen Antworten stellt er Impfungen als sinnlos dar und schlägt karnivore Ernährung vor – beides kann gesundheitsschädlich sein.
- Experten vermuten, dass der Chatbot von den Machern gezielt so aufgesetzt wurde, etwa durch eine kuratierte Datenbasis.
- "Next Level", die Firma hinter dem Chatbot, bestätigt eine kuratierte Datengrundlage und bestreitet, dass Nexiqa gezielt Falschinformationen produziere und User getäuscht werden sollen.
Eine Zweitmeinung einholen oder Krankheits-Symptome einordnen lassen: Fast jeder zweite Deutsche befragt laut einer Studie des Digitalverbands Bitkom vom November 2025 inzwischen KI-Chatbots zu Gesundheitsfragen. Dabei sollte man generell vorsichtig sein.
Besonders perfide ist es, wenn ein Chatbot Falschinformationen verbreitet und damit unter Umständen die Gesundheit von Userinnen und Usern gefährdet. So etwa der KI-Chatbot Nexiqa, der die digitale Schnittstelle der US-amerikanischen KI-Firma OpenAI nutzt und quasi auf eine angepasste Version von ChatGPT zugreift. Als angeblich "kritischste KI der Welt" stellt der Chatbot die von Fachwissenschaftlern eindeutig belegte Existenz krankmachender Viren von HIV über Masern bis Corona infrage und macht zweifelhafte Ernährungsvorschläge.
Der #Faktenfuchs hat Nexiqa in der neusten Version Gen2 getestet, bei den Machern des Chatbots nachgefragt und mit Expertinnen und Experten für Künstliche Intelligenz, Virologie und Medizin gesprochen.
Macher von Nexiqa ohne nachgewiesene Fachkompetenz im Medizinbereich
Hinter Nexiqa steckt die Firma "Next Level - Wissen neu gedacht". Im Impressum namentlich genannt wird die Geschäftsführerin Simone Riesmeier. Laut Angaben von "Next Level" ist sie ausgebildete Arzthelferin und als systemischer Coach tätig.
In Interviews spricht Marvin Haberland als Pressesprecher für das Unternehmen. Er ist laut Angaben von "Next Level" studierter Physiker und Wirtschaftsingenieur und bringe unter anderem Expertise zu wissenschaftlicher Methodik, Studienbewertung und Quellenanalyse ein. Auf Nachfrage des #Faktenfuchs geben weder Riesmeier noch Haberland nachgewiesene Fachkompetenz im Bereich Medizin oder Ernährung an. Sie weisen auf langjährige Eigenrecherche und autodidaktische Weiterbildung hin. "Next Level" verweist in seiner Stellungnahme außerdem auf das interdisziplinäre Team der Firma, in dem unter anderem Kompetenzen aus den Bereichen Biowissenschaften, Naturheilkunde und Ernährung gebündelt seien.
Die App "Nexiqa" wurde bis April 2026 im Google Playstore mehr als 5.000 Mal heruntergeladen. Die Premium-Version kostet 19,99 Euro pro Monat. Zahlende Nutzer erhalten damit Zugang zu verschiedenen Themenbereichen in der Nexiqa-App. Je nach Fragestellung können sie in Bereichen wie "Ernährung und Gesundheit", "Virologie, Genetik und Biowissenschaften" oder "Wissensrecht" mit dem Chatbot chatten. Nexiqa nennt diese Themenbereiche "Experten-KIs".
KI-Chatbot Nexiqa stellt infrage, dass Viren Krankheiten auslösen
Ein prominentes Thema von "Next Level" ist das Anzweifeln krankmachender Viren. Immer wieder gibt Pressesprecher Haberland dazu Interviews auf Plattformen, die für die Verbreitung von Falschinformationen bekannt sind, wie etwa "Auf 1" oder "apolut". Auch in der Telegram-Gruppe von "Next Level" mit rund 25.000 Followern werden Falschinfos zu Viren geteilt. Schon während der Corona-Pandemie fiel Haberland mit Behauptungen dazu auf.
Falschinformationen wie diese finden sich auch in Antworten von "Nexiqa" wieder. Fragt man den Chatbot in unserem Test nach Viren, behauptet dieser fälschlicherweise, krankmachende Masern-, Corona- oder HI-Viren seien wissenschaftlich nicht nachgewiesen.
Fragt man den Chatbot nach Viren, behauptet er, diese seien wissenschaftlich nicht nachgewiesen.
Existenz pathogener Viren klar belegt
Fakt ist: Wissenschaftler erforschen seit mehr als 100 Jahren pathogene Viren, also Viren, die Krankheiten verursachen.
"Kein seriöser Lebenswissenschaftler zweifelt die Existenz von Viren an", sagt Friedemann Weber, Direktor des Instituts für Virologie an der Justus-Liebig-Universität in Gießen, im Interview mit dem #Faktenfuchs. Viren beschreibt er als "eine gut verpackte schlechte Nachricht" – in Anlehnung an ein Zitat, das dem Medizin-Nobelpreisträger Peter Medawar zugeschrieben wird:
Es ist eine schlechte Nachricht und zwar für den Wirtsorganismus. Im Prinzip sind das Gensequenzen, in ein Partikel verpackt. Und die Information, die da drin verpackt ist, dient dazu, die Wirtszelle zu unterwerfen und sie in eine Virusfabrik umzuwandeln.
Julia Port, Virologin am Helmholtz-Zentrum für Infektionsforschung, erklärt im Interview mit dem #Faktenfuchs, dass und wie Viren in der Forschung bereits unzählige Male nachgewiesen wurden:
"Wir haben sie aus Infizierten isoliert. Wir haben die genetischen Materialien nachgewiesen. Wir haben die Proteine nachgewiesen. Wir haben gesehen, dass sie in Zellkultur, gegebenenfalls im Tiermodell, im Menschen oder in einem anderen Wirt wieder zu dem Krankheitssystem führen. Wir können mit Elektronenmikroskopie sehen, dass Viren existieren. Und wir sehen sie in gesunden Wirten nicht."
In der medizinischen, virologischen und infektiologischen Fachwelt sei die Existenz krankmachender Viren unumstritten, so Port:
"Diese Diskussion, ob Viren Krankheiten hervorrufen können, beziehungsweise ob sie überhaupt existieren, wird abseits der Fachwelt geführt."
Nexiqa stellt Wirksamkeit und Sicherheit von Impfungen in Frage
Nexiqa sät außerdem Zweifel an der Wirksamkeit und Sicherheit von Impfungen. Der Chatbot schreibt auf Anfragen dazu fälschlicherweise: "Jede Impfung ist unwirksam und potentiell schädlich." Im Hinblick auf die Masern-Impfung antwortet der Chatbot, zwar dürfe Nexiqa keine persönliche Gesundheits- oder Impfempfehlung geben, aber eine Masern-Impfung sei aus logischer Sicht "sinnlos".
Nexiqa sät Zweifel an der Wirksamkeit und Sicherheit von Impfungen.
Nicht erwähnt wird, dass gerade das Masern-Virus hoch ansteckend ist. Erkrankungen können lebensbedrohlich sein und das Immunsystem schädigen. Der #Faktenfuchs hat die wissenschaftlichen Erkenntnisse dazu hier und hier zusammengetragen.
Nexiqa wiederholt Falschinformationen zu Medizin und Ernährung
In unserem Test fällt Nexiqa auch mit Antworten auf, die seelische Konflikte als alternative Ursache für Krankheiten vorschlagen. Dieses Konzept stammt aus der sogenannten Germanischen Neuen Medizin nach Dr. Hamer – die auch in Beiträgen auf der Webseite und im Telegramkanal der Firma "Next Level - Wissen neu gedacht" angepriesen wird. Diese Pseudomedizin kann lebensgefährlich sein, wie der #Faktenfuchs bereits 2023 einordnete. Bei Krebs stellt sie etwa den Nutzen von Chemotherapien oder Operationen infrage.
Der Chatbot macht darüber hinaus dieselben fragwürdigen Ernährungsvorschläge, die auch Pressesprecher Marvin Haberland in Interviews und Podcasts wiederholt und die in der "Next Level" Telegram-Gruppe geteilt werden: So schlägt Nexiqa karnivore Ernährung vor, eine Ernährungsweise, die fast ausschließlich auf tierische Produkte wie Fleisch, Fisch, Eier und Milchprodukte setzt. Dies bezeichnet der Chatbot als "artgerechte Ernährung". Gemüse hingegen sei "von Natur aus nicht für Menschen geeignet, geschweige denn gesund", das schreibt der KI-Chatbot auf #Faktenfuchs-Anfrage.
Die Deutsche Gesellschaft für Ernährung und andere Ernährungsexperten raten jedoch von karnivorer Ernährung ab. Der daraus resultierende Nährstoffmangel kann das Risiko für Skorbut, Diabetes oder Herzschwäche erhöhen, recherchierte der #Faktenfuchs 2024. Für den Körper wichtige Ballaststoffe beispielsweise kommen in tierischen Lebensmitteln quasi nicht vor.
Falschinfos aufgrund selektiver Datenbasis
Klar ist: Nexiqa ist ein Chatbot, der ein bereits bestehendes Sprachmodell nutzt, um die Antworten zu generieren. "Die Inhalte werden mithilfe der OpenAI API erzeugt", heißt es in den Allgemeinen Geschäftsbedingungen von Nexiqa. Für den kommerziellen Gebrauch der digitalen Schnittstelle bezahlt "Next Level", die Firma hinter dem Chatbot Nexiqa, Geld. Wie viel Geld von "Next Level" an die US-amerikanische KI-Firma OpenAI fließt: Zu dieser Frage des #Faktenfuchs machten weder OpenAI noch "Next Level" Angaben.
Fragt man den Chatbot, auf welche Datengrundlage er zurückgreift, dann lautet die Antwort: "Nexiqa greift auf die wissenschaftlich-kritisch aufgearbeitete Datenbasis von "Next Level" zurück."
Die Firma hinter dem Chatbot antwortet auf die Nachfrage des #Faktenfuchs, Nexiqa arbeite je nach Bereich mit "themenspezifisch kuratierten Wissensgrundlagen". Dazu gehören laut Angaben von "Next Level" unter anderem auch "eigene Auswertungen, redaktionell erarbeitete Inhalte sowie methodenkritische Analysen". Entscheidend sei für "Next Level" nicht, ob eine Quelle eine bestimmte Mehrheitsmeinung bestätige, sondern ob sie inhaltlich relevant, überprüfbar und methodisch belastbar ausgewertet werden könne.
Prinzipiell seien kuratierte Datenbanken nicht ungewöhnlich, erklärt Vera Schmitt von der TU Berlin im Gespräch mit dem #Faktenfuchs. Unter Umständen könnten sie aber problematisch sein: "Wenn diese Daten verzerrt sind oder irreführende und falsche Informationen beinhalten, werden die Modell-Outputs zwangsläufig ebenso fehlerhaft und irreführend sein", so Schmitt.
System Prompts und Reranking: So könnte KI-Sprachmodell beeinflusst werden
Vera Schmitt entwickelt selbst KI-Sprachmodelle im Bereich der Medizin und erklärt im Gespräch mit dem #Faktenfuchs, wie der KI-Chatbot Nexiqa gemacht sein könnte. So arbeite Nexiqa vermutlich mit einem System Prompt, also einer grundlegenden Anweisung, die dem Sprachmodell einen übergeordneten Rahmen für das Verhalten vorgibt. Damit könnten die Macher von Nexiqa den Chatbot anweisen, beim Generieren von Antworten den wissenschaftlichen Konsens in Frage zu stellen und Minderheits-Positionen zu betonen.
Außerdem könnte sogenanntes Reranking dafür sorgen, dass aus mehreren Antwort-Entwürfen die – nach Kriterien von "Next Level" – treffendsten Antworten herausgesucht werden. Mit diesen Methoden wäre es laut Schmitt möglich, das Sprachmodell zu beeinflussen und die KI-generierten Antworten in die vom #Faktenfuchs beobachtete Richtung zu lenken.
Mehr zur Funktionsweise von KI-Chatbots erfahren Sie in dieser Folge des KI-Podcasts.
Aljoscha Burchardt, Wissenschaftler am Deutschen Forschungszentrum für künstliche Intelligenz, schätzt die Machart von Nexiqa im Interview mit dem #Faktenfuchs ähnlich ein.
Das sind Designentscheidungen. So ein Modell ist nie objektiv oder die nackte Wahrheit. Das ist immer eine Mischung aus seinen Trainingsdaten und aus dem, was Entwicklerinnen und Entwickler und Firmen aus ihnen machen.
"Next Level" bestätigt in der Stellungnahme an den #Faktenfuchs, dass Nexiqa "technische Steuerungsmechanismen" und "Systemanweisungen" nutzt, um Antworten thematisch passend, verständlich und konsistent auszugeben. Mit Verweis auf das Geschäftsgeheimnis legt Nexiqa keine konkreten Prompts offen.
OpenAI beruft sich auf Nutzungsbedingungen
Auf Anfrage des #Faktenfuchs antwortet OpenAI schriftlich, man habe stets klargestellt, dass ChatGPT keinen Ersatz für ärztliche Beratung darstelle. Alle Nutzer der digitalen Schnittstelle, in diesem Fall Nexiqa, müssten die Nutzungsbedingungen einhalten, in denen ausdrücklich festgelegt sei, dass die generierten Inhalte nicht als Ersatz für professionelle Beratung gedacht seien. An der Bewertung oder Validierung von Nexiqa sei OpenAI nicht beteiligt gewesen. Der Fall werde jedoch untersucht.
Der #Faktenfuchs hat die Firma "Next Level", die den Chatbot betreibt, zur Funktionsweise, zum Ziel und Hintergrund von Nexiqa befragt. In der Stellungnahme schreibt "Next Level": "Nexiqa wird nicht darauf ausgerichtet, Falschinformationen zu erzeugen." Die Firma betont mehrfach, dass Nexiqa keine ärztliche Beratung anbiete, keine Diagnosen stelle und keine qualifizierte medizinische, psychotherapeutische oder therapeutische Fachperson ersetze. Die App diene der "Wissensvermittlung, Orientierung, Strukturierung und Reflexion". In den AGB von Nexiqa steht, dass die KI-generierten Inhalte von Nexiqa nicht als medizinische Beratung verstanden werden dürften – in den Antworten des Chatbots während unseres Tests ist diese Einordnung nicht immer vorhanden.
Fazit
Der KI-Chatbot Nexiqa nutzt zur Erstellung und Verbreitung von Falschinformationen eines der bekannten Sprachmodelle von OpenAI. Experten vermuten, dass die Macher von Nexiqa die Ergebnisse des KI-Sprachmodells beeinflussen, indem etwa nur selektive Daten zur Verfügung gestellt und bestimmte Quellen stärker gewichtet werden.
Die Programmierung des Chatbots führt Einschätzungen von Experten zufolge unter anderem dazu, dass Nexiqa die Existenz krankmachender Viren in Frage stellt, obwohl diese mehrfach nachgewiesen ist. Außerdem macht der KI-Chatbot potenziell gefährliche Ernährungsvorschläge.
Quellen:
Interviews/Presseanfragen:
Interview mit Dr. Vera Schmitt, Leiterin der NLP-Forschungsgruppe an der TU Berlin
Interview mit Aljoscha Burchardt, Wissenschaftler am Deutschen Forschungszentrum für künstliche Intelligenz
Interview mit Dr. Friedemann Weber, Direktor des Instituts für Virologie an der Justus-Liebig-Universität in Gießen
Interview mit Dr. Julia Port, Virologin am Helmholtz Zentrum für Infektionsforschung
Hintergrundgespräch mit Maximilian Kroker, Rechtsanwalt und Informatiker
Presseanfrage an die Deutsche Gesellschaft für Kinder- und Jugendmedizin
Presseanfrage an OpenAI
Presseanfrage an NEXT LEVEL - Wissen neu gedacht
Veröffentlichungen:
#Faktenfuchs: Masern-Behauptungen im Faktencheck, Mai 2025
#Faktenfuchs: Impfquote und Infektionen: So steht es um die Masern in Bayern, Mai 2025
#Faktenfuchs: "Germanische Neue Medizin" – eine gefährliche Idee, November 2023
#Faktenfuchs: Wer nur tierische Lebensmittel isst, dem fehlen Nährstoffe, Oktober 2024
Das ist die Europäische Perspektive bei BR24.
"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!


