KI in der Psychotherapie

Der Chatbot als Therapeut

Das Bild zeigt zweimal dieselbe Frau, die auf ihr Smartphone blickt - einmal mit ernstem Gesicht, dann lächelnd.
Gespräche mit Chatbots in schwierigen Lebenssituationen können positiv auf die Psyche wirken, berichten Nutzer © Imago / Shotshop
Viele Menschen befragen Chatbots wie ChatGPT zu persönlichen Lebensthemen. Auch bei psychischen Problemen wird um Rat gefragt. Das kann als Einstieg in eine Therapie helfen, einen echten Therapeuten aber nicht ersetzen – und birgt auch Gefahren.
Wie soll ich mich in einem Streit verhalten? Wie bekomme ich mehr Struktur im Alltag? Was hilft, um besser einschlafen zu können? Solche Fragen richten Menschen immer öfter nicht nur an enge Vertraute, sondern auch an KI-Tools. In den sozialen Medien teilen vor allem junge Menschen ihre Erfahrungen und Gespräche mit Chatbots wie ChatGPT, Pi oder Perplexity.
Selbst in psychischen Krisen vertrauen viele User auf den Rat der Bots, die – im Gegensatz zu professionellen Therapieangeboten – unbegrenzt und jederzeit verfügbar sind. Die Gespräche mit der KI scheinen nach ersten Erkenntnissen häufig positive Effekte zu haben, ausreichende Studien zum Thema fehlen aber bisher.
Dennoch: Genutzt werden die KI-Tools schon jetzt für therapeutische Zwecke. Wo liegen also die Chancen der Technologie im Kampf gegen psychische Erkrankungen? Und welche Risiken gibt es?

Chancen von Chatbots in der Psychotherapie

Die Nachfrage nach Therapieplätzen wächst nahezu täglich. Doch das Angebot ist begrenzt und Betroffene müssen häufig mehrere Monate auf eine dringend benötigte Behandlung warten. Während der Wartezeit könnte die KI eine hilfreiche Stütze sein.
Der Psychologe Steven Siddals vom Londoner King’s College hat 19 Personen befragt, die mehrmals pro Woche Chatbots als eine Art Psychotherapie genutzt haben. Die Gründe, warum sie die KI genutzt haben, waren vielfältig: Ängste, Depressionen, Stress, Konflikte, Verlust. Einige wollten aber auch ihre romantischen Beziehungen verbessern.

KI als Ratgeber und emotionaler Zufluchtsort

Der Grundtenor der Studie ist fast durchweg positiv. Die meisten der Befragten sagten, dass die Gespräche ihr Leben signifikant verbessert haben. Siddals identifiziert dabei vor allem die Funktion der Chatbots als „emotionaler Zufluchtsort“ als hilfreich für die Nutzerinnen und Nutzer. Das heißt, sie konnten ihre Probleme gewissermaßen bei der KI abladen, ohne sich verurteilt zu fühlen – wenn nötig auch um 3 Uhr morgens. Das habe den Betroffenen Erleichterung gebracht.
Dazu kommt, dass die Chatbots darauf ausgerichtet sind, Nutzerinnen und Nutzern weiterzuhelfen – daher machen sie konkrete Vorschläge und geben Verhaltenstipps. Auch das kam bei den Befragten der Studie positiv an.

Auch simulierte Empathie zeigt Wirkung

Eine weitere Erkenntnis ist, dass Chatbots immer besser darin werden, Empathie zu simulieren. Dabei zeigt sich, dass es den Nutzerinnen und Nutzern wenig ausmacht, dass eine Künstliche Intelligenz eine Maschine ist, die keine echten Gefühle hat.
Denn obwohl sie sich dieser Tatsache bewusst sind, erleben sie den Austausch trotzdem als bereichernd und bestärkend. Möglicherweise wird zwischenmenschliche Empathie für den Erfolg von psychologischer Beratung also überschätzt.
Betroffene von psychischen Erkrankungen berichten auch, dass sie erst durch die Gespräche mit den Chatbots auf die Idee gekommen sind, eine Therapie zu machen. Denn erst der Austausch mit der KI zeigte ihnen, dass es hilft, über Probleme zu sprechen. Die Nutzung der Bots könnte also auch ein Weg sein, um erkrankte Menschen an eine Therapie heranzuführen.

Risiken von KI bei psychischen Problemen

Trotz der positiven Ergebnisse kann die Studie von Steven Siddals mit nur 19 Teilnehmenden keine Aussagen darüber treffen, wie Chatbots als Ersatz für Psychotherapie tatsächlich wirken. Vielmehr geht es dem Wissenschaftler darum aufzuzeigen, dass noch mehr Forschung zum Thema nötig ist. Denn die Nutzung von KI bei psychischen Problemen birgt auch Gefahren.
Die gewöhnlichen kommerziellen Chatbots sind nicht grundlegend auf die Hilfeleistung in psychischen Notlagen ausgelegt. Die Large Language Models (LLM) werden nicht ausschließlich mit psychologischer Fachliteratur trainiert, sondern mit Unmengen verschiedenster Daten  – darunter auch Bibeltexte, Drehbücher oder Diskussionen aus Internetforen.
Auf welche Quellen die Künstliche Intelligenz im spezifischen Fall zurückgreift, ist nicht immer transparent. Antworten und Empfehlungen, die die KI ausspricht, können auch falsch sein. Gerade Menschen, die psychisch labil sind, kann das aber noch weiter destabilisieren.

Chatbots können falsche Antworten geben

Dazu kommt, dass Chatbots in der Regel darauf ausgerichtet sind, ihre User zu unterstützen. Einigen KI-Tools wird deshalb ein „Jasager-Syndrom“ bescheinigt – das heißt, dass sie stark dazu tendieren, Menschen in ihren Wahrnehmungen zu bestätigen, erklärt der Computerexperte Hamed Haddadi gegenüber der BBC. Bei bestimmten psychischen Erkrankungen – etwa Selbstmordgedanken oder einer Essstörung – kann sich aber gerade das fatal auswirken.
Ein Chatbot könne nicht erkennen, wann ein Gespräch aus dem Ruder läuft, warnt die Präsidentin der Berliner Psychotherapeutenkammer Eva Schweitzer-Köhn im RBB. Gerade der Umstand, dass die KI immer antwortet, könne auch problematisch sein.
„Es hat schon Fälle gegeben, wo nach mehrstündigen ChatGPT-Interaktionen psychotische oder manische Episoden ausgelöst wurden“, sagt die Therapeutin.
Ein weiteres Problem bei der Nutzung der Chatbots ist der Datenschutz. Denn bei Informationen über den mentalen Gesundheitszustand handelt es sich um sehr sensible, persönliche Daten. Hinter Chatbots wie ChatGPT stehen kommerzielle Unternehmen, die bei den Gesprächen theoretisch „mithören“ können. Was genau mit den gesammelten Informationen passiert, ist nicht transparent.

Perspektiven für die Nutzung von Chatbots

Da die verfügbaren Chatbots von kommerziellen Unternehmen Sicherheitslücken haben, arbeiten mehrere Wissenschaftseinrichtungen in Deutschland bereits an sicheren KI-Anwendungen für die Psyche.
Am Zentralinstitut für seelische Gesundheit in Mannheim wird etwa eine KI-App entwickelt, die sich an erkrankte Kinder und Jugendliche richtet. Am Karlsruher Institut für Technologie soll ein sicherer KI-Chatbot entstehen, mit dem sich junge Menschen mit psychischen Problemen unterhalten können. Bis diese Tools in die Anwendung kommen, wird es aber noch einige Zeit dauern.
Nach ersten Erkenntnissen scheint in KI-Anwendungen viel Potential für die Psychotherapie zu liegen. Dass Chatbots Therapeutinnen und Therapeuten in Zukunft komplett ersetzen werden, ist jedoch unwahrscheinlich. Denn trotz der guten Erfahrungen von Betroffenen liegt es nahe, dass Chatbots höchstens die Symptome von psychischen Erkrankungen lindern, sie aber nicht heilen können.
Statt als Ersatz könnte KI künftig ergänzend zu einer Psychotherapie eingesetzt werden. Dafür ist allerdings noch mehr Forschung über die genaue Wirkung von Chatbots auf die Psyche der Nutzerinnen und Nutzer nötig. Außerdem müssen Forschungseinrichtungen selbst Anwendungen entwickeln, die in der Nutzung durch psychisch erkrankte Personen, aber auch mit Blick auf den Datenschutz, Sicherheit garantieren können.

kau
Mehr zu Künstlicher Intelligenz