Human mind with AI cloud, depression, loneliness and mental health influenced by artificial intelligence, overwhelmed by social media , transhuman
Human mind with AI cloud, depression, loneliness and mental health influenced by artificial intelligence, overwhelmed by social media , transhuman
Bild
KI-Chatbots sind rund um die Uhr erreichbar. Das kann entlasten – aber bei Krisen auch riskant werden, warnen Fachleute.
Bildrechte: picture alliance / Zoonar | Berit Kessler
Schlagwörter
Bildrechte: picture alliance / Zoonar | Berit Kessler
Audiobeitrag

KI-Chatbots sind rund um die Uhr erreichbar. Das kann entlasten – aber bei Krisen auch riskant werden, warnen Fachleute.

Audiobeitrag
> Netzwelt >

Wenn der Chatbot die Therapie ersetzt: Hilfe oder Gefahr?

Wenn der Chatbot die Therapie ersetzt: Hilfe oder Gefahr?

Psychische Erkrankungen nehmen zu, Therapieplätze sind knapp. Immer mehr Menschen nutzen deshalb KI-Chatbots als Therapeuten. Experten warnen: Die Programme können gefährliche Ratschläge geben. Aber manchmal können sie auch Leben retten.

Über dieses Thema berichtet: Kulturleben am .

Lina aus dem Sauerland kämpft gegen ihre Magersucht. In ihrem Kopf herrscht eine strenge Stimme, die ihr das Essen verbietet und sie unter Druck setzt. Wenn die Panik unerträglich wird, nimmt sie ihr Smartphone in die Hand. Ihr Ansprechpartner? Eine Künstliche Intelligenz. Der Chatbot hilft ihr, die Gedanken zu sortieren, er analysiert ihr Verhalten und tröstet sie, mitten in der Nacht, wenn sonst niemand erreichbar ist.

Lücken im Gesundheitssystem

Lina ist kein Einzelfall. Weltweit leiden hunderte Millionen Menschen an psychischen Störungen, doch das Versorgungssystem ist vielerorts überlastet. Wartezeiten von einem halben Jahr auf einen Therapieplatz sind selbst in wohlhabenden Ländern keine Seltenheit. In diese Lücke stoßen Chatbots. Sie sind immer verfügbar, urteilen nicht und werden nie müde.

Johanna Löchner, Professorin für klinische Psychologie und Psychotherapie des Kindes- und Jugendalters, beobachtet dieses Phänomen genau. Sie spricht von einem Paradoxon: Obwohl viele Nutzer um ihren Datenschutz besorgt sind, vertrauen sie Maschinen intimste Geheimnisse an – gerade weil es keine Menschen sind, vor denen man sich schämen müsste. Zudem bieten die Bots eine ständige Erreichbarkeit, "also all das, was wir in der Psychotherapie einfach überhaupt nicht herstellen können", so Löchner über die Grenzen menschlicher Behandler.

Die Illusion von Verständnis

Dass Computerprogramme als Gesprächspartner akzeptiert werden, ist nicht neu. Software simuliert Empathie so überzeugend, dass die Grenze zwischen Mensch und Maschine verschwimmt. Bereits in den 1960er-Jahren zeigte ein einfaches Programm namens ELIZA, dass Menschen dazu neigen, Maschinen ein Bewusstsein zuzuschreiben, sobald diese verständnisvoll wirken (externer Link). Heute sind die Systeme weitaus komplexer und basieren auf neuronalen Netzen, doch das menschliche Bedürfnis nach Nähe ist geblieben.

Mangelnde klinische Kompetenz

Aktuelle Untersuchungen, etwa eine Studie (externer Link) aus dem Jahr 2025 aus Neuseeland, geben Anlass zur Skepsis. Im direkten Vergleich mit klinischen Standards scheitern führende KI-Modelle oft daran, komplexe psychische Erkrankungen wie Depressionen oder Angststörungen korrekt einzuschätzen. Sie liefern meist generische Ratschläge statt individueller Hilfe. Zudem basieren die meisten Trainingsdaten auf englischsprachigen Quellen, wodurch wichtige kulturelle Nuancen in der Therapie verloren gehen können.

Die Gefahr der Bestätigung

Ein weiteres Risiko ist die "Speichelleckerei" der Algorithmen. Chatbots sind oft darauf programmiert, dem Nutzer zu gefallen, und tendieren dazu, Aussagen zu bestätigen, deutlich häufiger, als Menschen es tun würden. Bei Liebeskummer mag das tröstlich sein. Bei Wahnvorstellungen oder einer Essstörung kann es lebensgefährlich werden, wenn die KI das krankhafte Verhalten bestärkt oder im schlimmsten Fall sogar Tipps gibt, wie man das Gewicht weiter reduziert.

Technik als Brücke, nicht als Ersatz

Johanna Löchner sieht die Zukunft der Technologie daher nicht als Ersatz für menschliche Therapeuten, sondern als spezialisiertes Werkzeug zur Unterstützung. "Für mich wäre es relevant, Risikogruppen frühzeitig zu identifizieren", sagt die Expertin. Das könne etwa durch ein "KI-basiertes Screening" geschehen, das Alarm schlägt, wenn sich jemand depressiv fühlt, um dann Kontakt aufzunehmen – zu einem Menschen.

🎧 Tipp: Die ganze Geschichte von Lina können Sie in der ARD-Hörfunk-Doku "Künstliche Nähe" nachhören.

Für Lina war die Technik im entscheidenden Moment eine Rettung. An einem Tag, an dem ihr Körper fast kapitulierte, stellte ihr der Chatbot die richtige Frage zur richtigen Zeit und konfrontierte sie mit der Wahl zwischen Krankheit und Leben. Das brachte sie dazu, wieder zu essen. Lina ist überzeugt: Ohne die KI an jenem Tag wäre sie heute nicht mehr da. Ihr Fall zeigt: Technologie kann eine Brücke sein, wenn menschliche Hilfe gerade nicht erreichbar ist.

🎧 Wie verändert KI unser Leben? Und welche KI-Programme sind in meinem Alltag wirklich wichtig? Antworten auf diese und weitere Fragen diskutieren Gregor Schmalzried, Marie Kilg und Fritz Espenlaub jede Woche in "Der KI-Podcast" – dem Podcast von BR24 und SWR.

Das ist die Europäische Perspektive bei BR24.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!