Wenn man oft mit KI-Chatbots arbeitet, kennt man das Problem: Mal liefert die KI gute Ergebnisse, mal kompletten Unsinn – oft abhängig davon, wie man die Frage stellt. Schuld ist oft der sogenannte "Prompt", also die Anweisung an die KI.
Die Regeln dafür, was einen guten Prompt ausmacht, haben sich zuletzt verändert. Wer vor zwei Jahren mit KI gearbeitet hat, erinnert sich vielleicht an Empfehlungen wie: "Biete der KI ein Trinkgeld an" oder "Sag ihr, es sei wichtig für deine Karriere". Diese kuriose Phase ist vorbei. Eine Wharton-Studie aus 2025 testete systematisch, ob solche Tricks die Leistung von KI-Modellen verbessern – und fand keinen Unterschied. Was also hilft stattdessen?
Tipp 1: "Reasoning" einschalten
Ein kleines Rätsel: Soll man sein Auto zur 100 Meter entfernten Waschanlage fahren – oder hinlaufen? Natürlich fahren, schließlich soll das Auto gewaschen werden. Doch viele KI-Modelle empfehlen, zu Fuß zu gehen. Wer die Reasoning-Funktion aktiviert, bekommt in der Regel die richtige Antwort.
Die "Nachdenk"-Funktion macht die Ergebnisse der meisten Chatbot-Ergebnisse deutlich robuster – das zeigen auch Studien immer wieder. Sie findet sich in der Regel unter Begriffen wie "Thinking" oder "Extended Thinking". Allerdings oft nur hinter der Bezahlschranke.
🎧 Wie verändert KI unser Leben? Und welche KI-Programme sind in meinem Alltag wirklich wichtig? Antworten auf diese und weitere Fragen diskutieren Gregor Schmalzried, Marie Kilg und Fritz Espenlaub jede Woche in "Der KI-Podcast" – dem Podcast von BR24 und SWR.
Tipp 2: Informationen geben statt Tricks anwenden
Die KI kann nur die Rätsel lösen, die sie auch wirklich versteht. Deshalb gilt: Gerne möglichst viele Informationen über die Aufgabe hinzufügen.
Das KI-Unternehmen Anthropic hat dafür 2025 den Begriff "Context Engineering" geprägt. Statt des klassischen "Prompt Engineering" geht es nun darum, möglichst gezielte Informationen auszuwählen und in den Prompt einzufügen. Man muss seine Prompts dabei nicht perfekt strukturieren – lose diktierte Gedanken reichen oft aus. Wichtiger als die Form ist, dass alle relevanten Informationen im Prompt landen. Allerdings schadet auch zu viel Kontext: Schon ab einigen tausend Wörtern werden KI-Modelle bei Denkaufgaben messbar schlechter. So viel wie nötig, so wenig wie möglich.
Tipp 3: Beispiele zeigen und Format festlegen
Wer der KI ein paar Beispiele mitgibt, verbessert die Ergebnisse deutlich. Eine Metaanalyse mit 58 Techniken fand, dass sogenanntes "Few-Shot Prompting" – also das Beifügen von ein bis fünf Beispielen – konsistent die höchste Genauigkeit liefert. Google empfiehlt die Technik ausdrücklich für jeden Prompt.
Genauso wichtig: das Ausgabeformat festlegen. "Gib mir 20 Vorschläge mit maximal 45 Zeichen" liefert deutlich Besseres als "Mach mal ein paar Vorschläge". Die Forschung zeigt, dass die Formatwahl allein die Leistung um bis zu 300 Prozent variieren kann.
Tipp 4: Iterativ arbeiten – aber richtig
Selten führt der erste Prompt zum besten Ergebnis. Man probiert aus, schaut, was zurückkommt, und überlegt, welche Information fehlt. Dabei gibt es einen häufigen Fehler: endlos mit der KI hin und her chatten. In einer Analyse von über 200.000 Konversationen fiel die Leistung in langen Gesprächen im Schnitt um 39 Prozent. Das Problem: Trifft die KI früh eine falsche Annahme, erholt sie sich nicht mehr davon.
Die bessere Methode: Statt weiterzuchatten die ursprüngliche Nachricht bearbeiten. Und hat man das perfekte Ergebnis gefunden, lässt man die KI am Ende alle Faktoren in einem einzigen wiederverwendbaren Prompt zusammenfassen – einer Vorlage, die man künftig nur noch mit dem neuen Thema füllt.
Das ist die Europäische Perspektive bei BR24.
"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!
