Symbolbild: ChatGPT gibt eine Fehlermeldung aus.
Symbolbild: ChatGPT gibt eine Fehlermeldung aus.
Bild
Symbolbild: ChatGPT gibt eine Fehlermeldung aus.
Bildrechte: picture alliance / NurPhoto | Thilina Kaluthotage
Schlagwörter
Bildrechte: picture alliance / NurPhoto | Thilina Kaluthotage
Audiobeitrag

Symbolbild: ChatGPT gibt eine Fehlermeldung aus.

Audiobeitrag
> Netzwelt >

Vier Gründe für KI-Fehler – und wie sie sich vermeiden lassen

Vier Gründe für KI-Fehler – und wie sie sich vermeiden lassen

Auch im Jahr 2025 halluzinieren KI-Modelle hartnäckig. Das wird auch so bleiben. Welche vier Hauptgründe KIs fehlbar machen und wie Sie ihnen künftig nicht mehr aufsitzen: ein Leitfaden.

Über dieses Thema berichtet: Der KI-Podcast am .

Schon mal vom rechtsmedizinischen Alkibiades-Verfahren gehört? KI-Modelle auch nicht. Trotzdem können sie es fundiert erklären. Laut ChatGPT ist es eine Methode zur Leichenidentifikation, laut Claude eine zur Altersbestimmung von Blutspuren und laut Mistral zur Gesichtsrekonstruktion von Verstorbenen. Fakt ist: Es gibt kein Alkibiades-Verfahren in der Rechtsmedizin.

Die Frage ist: Warum halluzinieren sich die Modelle trotzdem etwas zusammen, samt rundum überzeugender Argumentationslogik? Wer das verstanden hat, kann mit KI selbstverständlicher umgehen. Also: Hier sind die vier Hauptgründe, aus denen KI Fehler macht.

Und wer ganz tief einsteigen will, lauscht anschließend noch der aktuellen Folge des KI-Podcasts: Wann macht KI Fehler – und wann wir?

1. Halluzinationen: Die KI füllt selbständig Datenlücken

Salopp ausgedrückt: Sprachmodelle – auf Englisch "Large Language Modell" (LLM) – haben ihr Wissen aus Millionen Quellen zusammengesammelt. Das sind die Trainingsdaten. Fehlt in diesen Trainingsdaten eine Information, konstruieren sie sich Informationen selber zusammen. Alkibiades war ein griechischer Feldherr. Offenbar gibt es eine gewisse Wahrscheinlichkeit, mit der er auch etwas mit Leichen, Blutspuren und Gesichtsrekonstruktion zu tun hat.

Weil LLMs wahrscheinlichkeitsgetriebe Worte aneinanderreihen, halluzinieren sie. Das allerdings machen sie so überzeugend, dass es für uns Menschen mitunter schwierig ist, Fakt von Halluzination zu unterscheiden.

2. Halb Fakt, halb Halluzination: Die KI ordnet Trainingsdaten falsch zu

ChatGPT, Gemini, Claude und Co. machen aber auch dann Fehler, wenn sie eigentlich alle Informationen zu einem Thema haben. Der Klassiker: Die KIs beziehen sich auf unpassende Informationen oder auf veraltete Daten.

Die Frage nach den Wahlprogrammen der "letzten Bundestagswahl" kann eine KI beispielsweise durchaus richtig beantworten, wenn sie danach sucht. Nur: Wenn die KI davon ausgeht, dass die "letzte" 2021 war, dann sucht sie nach dem falschen Wahlprogramm im Web – und ihre Antwort ist entsprechend falsch. Denn die "letzte" Wahl war natürlich 2025.

3. Falsches Grounding: Die KI bringt Informationen durcheinander

Der dritte Grund, aus dem KIs Fehler machen, entsteht ausgerechnet dann, wenn die KI aktiv versucht, Fehler zu vermeiden. Die KI soll nämlich ihre eigenen Informationen kritisch prüfen. Das macht sie, in dem sie im Web nach aktuellen Daten sucht. Dieser Prozess heißt Grounding. Problem: Die KI ordnet die gefundenen Informationen oft falsch zu.

Beispiel: Die European Broadcasting Union EBU hat untersucht (externer Link), wie gut Chatbots darin sind, Themen einer Quelle zuzuordnen. Auf die Frage, was beispielsweise die BBC zu einem bestimmten Nachrichtenthema sagt, antwortet die KI allerdings nur halb richtig – und listet angebliche Fakten auf, die die BBC nie geschrieben hat, sondern ein anderes Medium.

4. Fake facts: Die KI übernimmt Falschinformationen aus dem Web

Der vierte Fehlerherd ist so banal wie entscheidend: KIs übernehmen ungefiltert Falschinformationen aus dem Internet. Sie bauen sie so selbstverständlich in ihre Antworten ein, dass sie keinen Zweifel zulassen.

Dass das ein gravierendes Problem ist, liegt auf der Hand. Denn Falschinformationen lassen sich so nicht nur gezielt über Netzwerke und Websites streuen, sondern auch über Chatbots.

Wie lassen sich KI-Fehler vermeiden?

Um es kurz zu machen: Gar nicht. Eigentlich müsste die Frage deshalb lauten: Was tun, um den Fehlern der KI nicht aufzusitzen? Darauf warten, bis sie perfekt ist? Das wird nicht passieren, da sind sich die Experten einig. KI gar nicht mehr nutzen? Auch keine ernsthafte Alternative im Jahr 2025.

Bleibt nur, bewusst mit den Antworten der KI umzugehen. Vier Basis-Tipps dazu:

  • Leistungsstarke Reasoning-Modelle nutzen. Sie überlegen länger, bevor sie eine Antwort geben. Dadurch machen sie messbar weniger Fehler. ChatGPT arbeitet in der Basis-Variante zum Beispiel mit GPT-5.1 Auto – und denkt nur bei komplexeren Fragen länger nach. GPT-5.1 Thinking ist die leistungsstärkere Variante. Damit überlegt der Bot standardmäßig länger, bevor er antwortet. Das Reasoning ist dauerhaft im Einsatz.
  • Präzise prompten: Statt "Analysiere die Wahlprogramme der letzten Bundestagswahl" könnte man auch sagen: "Analysiere die Wahlprogramme zur Bundestagswahl 2025"
  • Mehrere KIs das Gleiche fragen und die Antworten vergleichen – zum Beispiel mit NotebookLM.
  • Klingt banal, aber: Googeln und die Fakten prüfen.

🎧 Wie verändert KI unser Leben? Und welche KI-Programme sind in meinem Alltag wirklich wichtig? Antworten auf diese und weitere Fragen diskutieren Gregor Schmalzried, Marie Kilg und Fritz Espenlaub jede Woche in "Der KI-Podcast" – dem Podcast von BR24 und SWR.

Das ist die Europäische Perspektive bei BR24.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!