Verhaltensaktivierung per KI? KI-Chatbot soll bei depressiven Symptomen helfen

Autor: Nina Arndt

Ein KI-basierter Chatbot könnte Menschen mit depressiven Symptomen eine niederschwellige Unterstützung bieten. Ein KI-basierter Chatbot könnte Menschen mit depressiven Symptomen eine niederschwellige Unterstützung bieten. © Garun Studios – stock.adobe.com

Ein Mental Health Chatbot könnte Personen mit depressiven Symptomen rund um die Uhr unterstützen. Am Karlsruher Institut für Technologie (KIT) entwickelt Dr. Florian Onur Kuhlmeier einen Bot, der auf Methoden der kognitiven Verhaltenstherapie basiert

Rund um die Uhr verfügbar, ohne Wartezeiten und frei von Stigmatisierung – ein KI-basierter Chatbot könnte Menschen mit depressiven Symptomen eine niederschwellige Unterstützung bieten. Am Karlsruher Institut für Technologie (KIT) entwickelt Dr. Florian­ Onur Kuhlmeier­ ein solches System, das auf Methoden der kognitiven Verhaltenstherapie basiert.

Auf welche Personengruppe ist der Mental Health Chatbot zugeschnitten?

Dr. Kuhlmeier: Der Chatbot ist für junge Erwachsene mit leichten bis mittelgradigen depressiven Symptomen konzipiert sowie für Personen, bei denen diese nicht klinisch diagnostiziert werden würden, aber bereits eine Belastung vorliegt. Wir wissen aus Studien, dass bei Menschen mit schwerer Depression digitale Interventionen weniger effektiv sind. Unsere Zielgruppe sind primär Studierende, weil wir am KIT einen leichten Zugang zu ihnen haben.

In welchen Fällen bietet sich der Einsatz eines solchen Chatbots an? 

Dr. Kuhlmeier: Ich würde sagen, es gibt drei Haupt­einsatzbereiche. Der Erste wäre die Überbrückung von Wartezeiten auf einen Therapieplatz, wie bei anderen digitalen Interventionen auch. Ein zweiter, oft unterschätzter Bereich betrifft Personen, die keine persönliche Behandlung in Anspruch nehmen wollen, z. B. aus Angst vor Stigmatisierung oder wegen schlechter Erfahrungen in Praxen. Natürlich wäre es gesellschaftlich wichtig, Stigmata abzubauen, aber aktuell existiert diese Patientengruppe noch.

Und drittens lässt sich das Tool als Ergänzung zur laufenden Therapie nutzen: In unserer letzten Studie bewerteten Therapeutinnen und Therapeuten positiv, wie strukturiert der Chatbot die Verhaltensaktivierung durchläuft. Sie sahen auch die Möglichkeit, dass sie bestimmte Themen wie Techniken und Hausaufgaben an den Chatbot „auslagern“ könnten, um sich so während der Behandlung auf andere Aspekte zu fokussieren.

Der psychotherapeutische Ansatz ist also die Verhaltensaktivierung?

Dr. Kuhlmeier: Unser Chatbot basiert auf Modulen der kognitiven Verhaltenstherapie, da diese bei unserer Zielgruppe nachweislich wirksam ist und unsere Kooperationspartnerinnen und -partner über entsprechende Expertise verfügen. Zunächst haben wir mit der Verhaltensaktivierung begonnen, arbeiten derzeit jedoch auch an der Implementierung der kognitiven Umstrukturierung. Perspektivisch planen wir zudem, die interpersonelle Psychotherapie zu erproben.

Wie läuft ein solches Modul ab?

Dr. Kuhlmeier: Das Verhaltensaktivierungsmodul umfasst mehrere Sitzungen. In der ersten Therapiestunde erfolgt zunächst eine Art Problemerfassung mit Fokus auf die depressiven Sym­p­tome und das Verhalten. Es folgt eine psychoedukative Komponente über den Zusammenhang zwischen Gedanken, Gefühlen und Verhalten. Am Ende der ersten Sitzung sollen die Nutzerinnen und Nutzer mit einem Aktivitätstagebuch beginnen.

Der zweite Schritt ist der Verhaltensaufbau, individuell angepasst an die Situation der Person. Gemeinsam wird mindestens eine Aktivität konkret und realistisch geplant, mögliche Hindernisse werden vorab durchdacht und Belohnungen festgelegt. Anschließend wird reflektiert, ob die Umsetzung geklappt hat. 

Es geht also nicht darum, die Verhaltensaktivierung neu zu erfinden. Die Herausforderung besteht vielmehr darin, dass der Chatbot dieses Programm sicher, individuell und mit hoher Qualität über mehrere Gespräche hinweg abbildet.

Sie haben Ihren Chatbot nicht direkt an Betroffenen getestet, sondern aus Patientenvignetten KI-Personen generiert, die dann mit dem Chatbot interagiert haben. Wie bewerteten Therapeutinnen und Therapeuten die Qualität dieser Dialoge?

Dr. Kuhlmeier: Grundsätzlich positiv. Einige waren überrascht, wie gut der Chatbot die Verhaltensaktivierung umsetzen kann. Es traten keine problematischen oder gefährlichen Inhalte wie die Bestärkung suizidaler Gedanken auf. Als sehr realistisch und praxisnah bewerteten die Expertinnen und Experten, wie die fiktiven Nutzerinnen und Nutzer ihre Symptome und Lebenssituation beschrieben. 

Ein Hauptkritikpunkt war, dass die künstlichen Patientinnen und Patienten zu bereitwillig Vorschläge annahmen – reale Personen zeigen mehr Skepsis und Resistenz. Auch der Chatbot reflektierte nicht immer kritisch, ob geplante Aktivitäten realistisch sind: Wenn jemand seit Wochen keinen Sport macht und nur im Bett liegt, aber dann siebenmal pro Woche ins Fitnessstudio will, sollte der Chatbot kleinere, machbare Schritte vorschlagen. Auch bei Belohnungen fehlte manchmal die kritische Einordnung – nicht jede Aktivität sollte mit Schokolade belohnt werden.

Mittlerweile wurde das Modell weiterentwickelt. Wie versuchen Sie unrealistische Vorschläge und potenziell schädliche Ratschläge zu verhindern?

Dr. Kuhlmeier: Dafür gibt es verschiedene Mechanismen. Wir verwenden detaillierte Instruktionen und haben u. a. Beispiele zu problematischen und machbaren Belohnungen ergänzt. Tatsächlich lassen wir die Nachrichten auch nicht von einem einzelnen Modell generieren, sondern haben mehrere KI-Therapeutinnen und -Therapeuten, die Antworten formulieren und aus denen die beste ausgewählt wird. Eine „KI-Supervisorin“ überprüft alle Nachrichten und greift bei Abweichungen von den vorgegebenen Instruktionen ein. Eine hundertprozentige Garantie können wir allerdings nicht geben. Deshalb ist es wichtig, Nutzerinnen und Nutzer über Vorteile und Limitationen des Systems aufzuklären.

Welche Vorteile sehen Sie denn in der Nutzung?

Dr. Kuhlmeier: Der Chatbot steht 24/7 zur Verfügung – in der Hosentasche, zu jeder Zeit und an jedem Ort. Einer Analyse von Woebot Health zufolge nutzen auffällig viele Personen solche Tools eher abends und nachts, also gerade dann, wenn die Therapeutin oder der Therapeut nicht erreichbar ist. Außerdem kann der Chatbot täglich nachfragen, wie es mit dem Verhaltensaufbau geklappt hat, und entsprechend nachjustieren. Das ist ein viel kürzeres Zeitintervall, um auf Veränderungen zu reagieren, als bei den Expertinnen und Experten, die man klassisch einmal die Woche sieht. Dadurch ermöglichen solche Anwendungen eine intensivere therapeutische Begleitung.

Und wie sieht es mit möglichen Risiken aus?

Dr. Kuhlmeier: Wenn man ein solches System, das einen zudem gut kennt, rund um die Uhr verfügbar hat, kann es zu einer Abhängigkeit kommen. Die Herausforderung besteht darin, wie in der klassischen Therapie auch, nach einer intensiven Phase langsam auszuschleichen und den Transfer in ein funktionales, ansatzweise normales Leben zu schaffen.

Welche Sicherheitsprotokolle werden aktiviert, wenn jemand suizidale Gedanken äußert?

Dr. Kuhlmeier: Eine Komponente des Chatbots dient ausschließlich der Risikoanalyse und prüft, ob aus den Nutzereingaben eine Selbst- oder Fremdgefährdung hervorgeht. Wird eine solche Nachricht entdeckt, übernimmt das System und schaltet zunächst eine Antwort vor, die die Situation abholt, und verweist dann auf Notfallkontakte wie 116 117 oder an institutionelle Beratungsstellen – in unserem Fall die psychologische Betreuung des KIT. 

Sie testen den Chatbot derzeit erstmals an echten Patientinnen und Patienten. Was genau untersuchen Sie?

Dr. Kuhlmeier: Wir haben Ende September eine Studie mit KIT-Studierenden gestartet, die an depressiven Symptomen leiden. Wir testen verschiedene „Verkörperungen“ des Chatbots: als Handy-App, Smart Speaker und humanoider Roboter. Uns interessiert vor allem, ob sich die Sym­ptomatik verbessert, aber auch, ob sich die Verbindlichkeit erhöht, wenn Nutzerinnen und Nutzer das Gefühl haben, ihnen sitzt jemand gegenüber – im Vergleich zur Handy-App, die man jederzeit wegklicken kann.

Die Adhärenz bei digitalen Gesundheitsanwendungen ist insgesamt allerdings eher schlecht. 

Dr. Kuhlmeier: Meine These ist, dass Systeme, die auf Large-Language-Modellen basieren, durch ihre Interaktivität und Personalisierung eine bessere Adhärenz erreichen als bisherige Anwendungen, die eher wie ein Online-Kurs konzipiert sind. Die Möglichkeit, konkrete Fragen zu stellen und Feedback zu bekommen, macht solche KI-basierten Chatbots deutlich interessanter und motivierender. Trotzdem bin ich skeptisch, ob diese digitalen Anwendungen eine ähnlich hohe Adhärenz wie bei menschlichen Therapeutinnen und Therapeuten erreichen werden. Der persönliche Kontakt hat eine andere Verbindlichkeit. Vielleicht könnten eigenständige Geräte wie Smart Speaker oder humanoide Roboter in dieser Hinsicht einen zusätzlichen Nutzen bieten, möglicherweise durch eine stärkere physische Präsenz­.

Chatbots werden also keine Therapeutinnen und Therapeuten ersetzen?

Dr. Kuhlmeier: Die spannenderen Fragen sind eigentlich: Wie gut sind die Chatbots und wo landen sie in der Wirksamkeitshierarchie? Es gibt sehr gute, aber auch weniger gute Therapeutinnen und Therapeuten. Ob sie tatsächlich durch Chatbots ersetzen werden, hängt primär vom Gesundheitssystem ab. Geht es um Kostenersparnis, werden Krankenkassen den günstigen Chatbot dem teuren Menschen vorziehen. Das ist eine gesellschaftliche und politische Entscheidung, keine technische.
 

Interview: Nina Arndt


Befinden Sie sich derzeit selbst in einer schwierigen Lage? Expert:innen können Ihnen helfen, diese Zeit zu überstehen. Hier finden Sie eine Auswahl von Anlaufstellen »

Dr. Florian Onur Kuhlmeier
Postdoc, Karlsruher Institut für Technologie Dr. Florian Onur Kuhlmeier Postdoc, Karlsruher Institut für Technologie © Dr. Florian Onur Kuhlmeier