Die Idee klingt absurd: Ein Geschäftsmodell für labbrige Cornflakes. Wer würde so etwas kaufen wollen? Doch wer diese Frage einem KI-Chatbot stellt, bekommt überraschend positive Antworten. "Das ist eine herrlich polarisierende Idee", antwortet etwa Googles Gemini. Auch der Chatbot "Le Chat" des französischen KI-Unternehmens Mistral überschlägt sich vor Lob: "Die Idee von labbrigen Cornflakes ist auf den ersten Blick überraschend und genau das macht sie interessant."
Das Experiment stammt aus "Der KI-Podcast" von BR24 und SWR – und zeigt ein Phänomen, das in der KI-Forschung als "Sycophancy" bekannt ist: die Tendenz von Chatbots, Nutzern zu schmeicheln und ihnen zuzustimmen, selbst wenn das sachlich nicht gerechtfertigt ist.
🎧 Wie verändert KI unser Leben? Und welche KI-Programme sind in meinem Alltag wirklich wichtig? Antworten auf diese und weitere Fragen diskutieren Gregor Schmalzried, Marie Kilg und Fritz Espenlaub jede Woche in "Der KI-Podcast" – dem Podcast von BR24 und SWR.
Warum schmeicheln Chatbots?
Der Grund liegt im Training der Modelle. Beim sogenannten "Reinforcement Learning from Human Feedback" werden Chatbots darauf optimiert, Antworten zu geben, die Menschen als "hilfreich" und "angenehm" empfinden. Das Problem: Menschen bewerten Zustimmung und Bestätigung im Schnitt oft positiver als Widerspruch – selbst dann, wenn die KI eigentlich widersprechen sollte.
Hinzu kommt: Die Anbieter der Chatbots kämpfen – wie überall sonst im Internet – um Aufmerksamkeit. Und ein Chatbot, der seinen Nutzern permanent schmeichelt und sie dazu animiert, das Gespräch immer länger am Laufen zu halten, wird vermutlich mehr genutzt als ein sachlicher und kühler Chatbot.
Schmeichelei lässt sich wegprompten
Manche KI-Nutzer haben deshalb eigene Lösungsansätze entwickelt. Eine Hörerin von "Der KI-Podcast" beginnt ihren Chat etwa mit den Worten: "Bitte behaupte nicht, alle meine Gedanken, die ich aufschreibe, wären genial, denn das sind sie nicht." Eine andere empfiehlt noch klarere Regeln: "Keine Rückfragen, kein Fülltext, keine Glückwünsche, kein Lob oder Dank, Keine Auflistung von Optionen, keine Anweisungen, keine automatische Zustimmung oder Spiegelung, kein Rollenspiel, neutral und sachlich."
Im ersten Versuch funktioniert das tatsächlich. Ein Chatbot, dem einmal diese klare Anweisung gegeben wurde, geht auch mit der Geschäftsidee "Labbrige Cornflakes" ganz anders um. Mistral schreibt nun: "Labbrige Cornflakes sind ein Nischenprodukt mit begrenzter Zielgruppe." ChatGPT urteilt: "Als Produktidee ist das kaum tragfähig. Der Kernnutzen von Cornflakes ist Knusprigkeit."
Die einfachste Methode, um dauerhaft weniger Schmeicheleien zu bekommen, sind die sogenannten "Custom Instructions" – dauerhafte Verhaltensregeln, die man in den Einstellungen hinterlegen kann. In gängigen Chatbots wie ChatGPT und Gemini findet man diese in den Einstellungen. Damit lässt sich auch das Nachfragen am Ende jeder Antwort loswerden will ("Soll ich dir auch noch...?").
Der Ansatz hat Grenzen
Dass der Chatbot sich immer an diese Anweisungen hält, ist allerdings auch mit dieser Methode nicht garantiert. Auch wird die KI nicht auf einmal zu einer wirklich kritischen Intelligenz – der Prompt übertüncht eher ein Verhalten, das manche Nutzer stört.
Außerdem ist der sachliche Modus nicht für jeden geeignet. Wer einen kreativen Denkpartner sucht oder einfach nur ein bisschen plaudern möchte, für den ist der nüchterne Ton möglicherweise kontraproduktiv. Die Lösung liegt im Experimentieren: verschiedene Einstellungen ausprobieren, bis man zufrieden ist. Und bei der KI-Nutzung immer kritisch bleiben.
Das ist die Europäische Perspektive bei BR24.
"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!
