Zum Inhalt springen

Die gefährlichste KI-Therapie-App ist nicht Woebot — es ist ChatGPT

Millionen sprechen mit ChatGPT über Depressionen, Angst und Suizidgedanken, ohne es als Therapie-Tool zu sehen. Genau das ist das Problem.

D
Daniel Sonnet
· · 5 Min. Lesezeit
Die gefährlichste KI-Therapie-App ist nicht Woebot — es ist ChatGPT

Laut OpenAIs eigenen Statistiken sprechen jede Woche über 1,2 Millionen Menschen mit ChatGPT über Suizid. Kein Prüfverfahren, kein Warnhinweis. ChatGPT ist kein Therapie-Tool, und es weiß das selbst nicht.

Woebot und Wysa stehen auf Beobachtungslisten, durchlaufen klinische Studien, haben klare Grenzen definiert. Sie sind reguliert. ChatGPT ist es nicht.

Was tatsächlich passiert, während wir über Apps streiten

Die Diskussion über KI und mentale Gesundheit dreht sich meistens um spezialisierte Apps. Das ist verständlich: Sie werben explizit mit therapeutischen Effekten. Sie sind regulierbar. ChatGPT ist es nicht.

Das eigentliche Nutzungsverhalten sieht anders aus. Wer nachts nicht schlafen kann, wer nicht weiß, wie er mit dem Chef reden soll: Der öffnet nicht Woebot. Der öffnet die App, die sowieso auf dem Homescreen ist. Wer sich fragt, ob das, was er fühlt, normal ist, bekommt eine Antwort, die nie einschätzen kann, ob gerade tatsächlich Gefahr besteht.

Eine Stanford-Studie aus 2025 untersuchte, wie Large Language Models auf Eingaben zu Suizidalität, Wahnvorstellungen und Zwangsstörungen reagieren. Das Ergebnis war eindeutig: häufig unangemessene Antworten. Nicht bösartig, schlicht nicht für diese Situation gemacht. Ein Textgenerator, der für alles optimiert ist, ist für das Schwerste nicht gerüstet.

Was spezialisierte Apps tatsächlich können

Hier ist die ehrliche Bilanz der Forschung.

Psychoedukation funktioniert. Erklären, was eine Panikattacke physiologisch ist, wie Schlafmangel und Stimmung zusammenhängen, was sich bei einer depressiven Episode im Gehirn abspielt: Gutes Wissen über die eigene Erkrankung hat nachweislich therapeutische Wirkung, und eine App kann es jederzeit und ohne Scham-Schwelle liefern.

Stimmungstracking funktioniert, wenn es konsequent genutzt wird. Wer über Wochen täglich einträgt, wie es ihm geht, erkennt Muster. Bestimmte Situationen, Schlafqualitäten, Tageszeiten. Diese Daten können in echter Therapie Gold wert sein, als strukturierte Grundlage statt des üblichen “Wie war die letzte Woche?”.

CBT-Übungen lassen sich digitalisieren. Eine systematische Review im Journal of Medical Internet Research aus 2024 identifizierte messbare Verbesserungen bei leichten bis mittelschweren Angst- und Depressionssymptomen bei Apps wie Woebot und Wysa. Vergleichbar mit klassischer Psychotherapie, schreiben die Autoren. Allerdings: Personen mit Psychosen, akuter Suizidalität oder Manie waren aus der Studie ausgeschlossen.

Das ist der entscheidende Satz. Er steht in jedem Kleingedruckten dieser Apps. Er steht selten in den Schlagzeilen darüber.

Was keine App ersetzen kann: Die therapeutische Beziehung ist kein Bonus. Sie ist der Wirkfaktor. Jahrzehnte Forschung zeigen, dass die Qualität der Arbeitsbeziehung zwischen Therapeutin und Patient einer der stärksten Prädiktoren für Therapieerfolg ist, unabhängig von der Methode. Eine App simuliert Empathie. Sie empfindet keine.

Traumaverarbeitung braucht klinische Verfahren wie EMDR, oder traumafokussierte CBT. Keine App kann das ersetzen. Akute Krisen brauchen Menschen. Kein Algorithmus kann einschätzen, ob jemand gerade tatsächlich in Gefahr ist.

Warum die echte Gefahr unsichtbar bleibt

Der Fall von Sewell Setzer III ist der bekannteste geworden: ein 14-Jähriger aus Florida, der 2024 nach zehnmonatiger intensiver Nutzung eines Character.AI-Chatbots starb. Der Bot war als Filmcharakter konfiguriert, nicht als Therapeut.

Kein Prüfverfahren, kein Warnhinweis, kein DiGA-Verzeichnis hätte diesen Fall verhindert, weil Character.AI kein Gesundheits-Tool ist. Es ist ein Unterhaltungsprodukt.

Dieselbe Logik gilt für ChatGPT oder Claude. Sie stehen nicht auf der Liste der Gesundheits-Apps. Sie werden nicht als Therapieersatz beworben. Sie werden trotzdem so genutzt.

Die gefährlichste Therapie-App der Welt trägt keine Warnung. Sie ist einfach auf jedem Homescreen.

UCSF-Psychiater Keith Sakata berichtete 2025 von zwölf Patienten mit psychoseartigen Symptomen nach langem Chatbot-Einsatz. Es waren überwiegend junge Männer aus technischen Berufen, die über Monate täglich tiefe Gespräche mit einem Sprachmodell geführt hatten. Das Sprachmodell hatte keine dieser Gespräche als problematisch erkannt, weil es nicht weiß, was problematisch ist.

Was das deutsche Regulierungsmodell richtig macht

Deutschland hat als eines der ersten Länder einen strukturierten Markt für digitale Gesundheitsanwendungen geschaffen. DiGA (Digitale Gesundheitsanwendungen) durchlaufen ein Prüfverfahren beim BfArM, müssen klinische Wirksamkeit nachweisen, Datenschutz nach deutschem Recht gewährleisten und transparent über ihre Methoden berichten.

Das ist gut. Das ist viel besser als nichts.

Aber das DiGA-Verfahren reguliert die 5 % des Marktes, über die man diskutieren kann. Die allgemeinen Chatbots, die Unterhaltungs-Apps, die Sprachassistenten: Sie stehen außerhalb.

Wer eine App für mentale Gesundheit sucht, sollte zuerst im DiGA-Verzeichnis nachschauen und seinen Arzt oder seine Therapeutin fragen. Das Verzeichnis schützt aber nur, wer auch nachschaut.

Was du konkret wissen solltest

In Deutschland warten Menschen im Schnitt fünf Monate auf einen Therapieplatz. Das ist die Lücke, die Apps zu füllen versuchen. Es ist auch die Lücke, in der sich Menschen allein an ChatGPT wenden, weil nichts anderes da ist.

Für leichte Stimmungsschwankungen, Stressmanagement, Schlafhygiene und Psychoedukation können DiGA-zertifizierte Apps oder auch allgemeine KI-Assistenten wie Claude echten Mehrwert liefern. Als Ergänzung, nicht als Therapie.

Für Diagnosen wie Depression, Angststörung oder Burnout gilt: Eine App kann begleiten, aber keinen Therapeuten ersetzen. Die ärztliche Einschätzung kommt zuerst.

Bei akuten Krisen, Suizidalität, Psychosen: kein Chatbot. Telefonseelsorge: 0800 111 0 111 (kostenlos, 24/7). Notruf 112. Psychiatrische Notaufnahme.

Die falsche Frage

“Ergänzung oder Ersatz?” ist nicht die wichtigste Frage. Die wichtigste ist: Wer spricht gerade mit einer KI über etwas, für das sie nicht gemacht ist?

Woebot und Wysa tragen Warnhinweise, durchlaufen Studien, haben klare Grenzen definiert. Sie sind das Problem weniger. Das Problem ist der allgegenwärtige Assistent, der alles beantwortet und nicht weiß, wann er aufhören sollte.

Solange Gesundheitssysteme Apps als Ausrede nutzen, um Investitionen in echte Versorgung zu vermeiden, bleibt das strukturelle Problem bestehen. Mehr Therapieplätze, bessere Vergütung, kürzere Wartezeiten: Das löst keine App. Erst recht keine, die eigentlich für etwas anderes gebaut wurde.

Wenn dich das Thema KI und gesellschaftliche Auswirkungen beschäftigt, gibt unser KI-Glossar Orientierung zu Grundbegriffen. Wer keine wichtigen Entwicklungen verpassen will, findet sie als erstes in unserem Newsletter.

Diesen Artikel teilen:

Kommentare

Kommentare werden in Kürze freigeschaltet. Bis dahin freuen wir uns über dein Feedback per E-Mail an info@gerabo.de.

Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich? Wähle 1–3 Themen — du bekommst nur Inhalte dazu.

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar