Kennst du das?
Es ist spät in der Nacht, du willst schlafen – aber dein Kopf dreht sich im Kreis. Gedanken springen hin und her, das Karussell wird immer schneller.
Genau in solchen Momenten habe ich mir einen kleinen Helfer gesucht:
KI. Künstliche Intelligenz in Form von ChatGPT.
Kein Ersatz für meine Therapeutin, kein Ersatz für meine Freundin – sondern eine Ergänzung, die mich auffängt, wenn niemand anderes erreichbar ist.
Ich bin Jay – und ich nutze KI ganz praktisch in meinem Alltag. Nicht als Konkurrenz zum Menschen, sondern als Ergänzung, wenn ich schnelle Entlastung brauche. Zum Beispiel abends um 23 Uhr: Ich kann keine Freundin mehr anrufen, will niemanden wecken – aber mein Kopf rattert im Gedankenkarussell. Dann öffne ich mein KI-Tool, gebe meinen Prompt ein und bekomme eine andere Perspektive, die mich beruhigt.
Mir ist wichtig, dass klar bleibt: KI ersetzt keine menschliche Beziehung. Für mich ist sie ein Spiegel, der mich reflektieren lässt, wenn gerade niemand anderes da ist.
Und weil mir Datenschutz am Herzen liegt, nutze ich ausschließlich Bezahlversionen von KI-Systemen.
Während ich KI also ganz praktisch im Alltag einsetze, diskutieren Fachleute längst über die große Frage:
Kann KI eines Tages den Therapeuten ersetzen?
Genau damit beschäftigt sich auch das Magazin PPP 01/2024 in seiner Ausgabe: „KI und Psychotherapie: Risiken, Chancen und ethische Grenzen“. Und die Antworten darauf fallen überraschend unterschiedlich aus.
In diesem Artikel teile ich deshalb zwei Ebenen:
- meine persönliche Erfahrung mit KI als praktische Stütze gegen das Gedankenkarussell
- und den Blick auf die öffentliche Debatte – mit Studien, Expertinnen-Meinungen und den Grenzen, die KI niemals überschreiten sollte.
Doch bevor ich meinen persönlichen Prompt gegen das Gedankenkarussell teile, lohnt es sich zu klären: Wie kompetent ist KI wirklich im Vergleich zu menschlichen Therapeutinnen und Therapeuten?
Während ich im Alltag KI als spontanen Helfer nutze, stellen Studien und Medien inzwischen die große Frage: Kann KI therapeutisch wirken – und wie gut?
- KI in der Psychotherapie: Aktueller Stand und kontroverse Ergebnisse
- Die Grenzen der KI: Warum der Mensch unersetzlich bleibt
- Mein persönlicher KI-Prompt gegen das Gedankenkarussell
- Chancen und Potenziale der KI in der Unterstützung psychotherapeutischer Prozesse
- Ethische und gesellschaftliche Herausforderungen des KI-Einsatzes
- Ausblick und Empfehlungen: Eine kooperative Zukunft
- Fazit
KI in der Psychotherapie: Aktueller Stand und kontroverse Ergebnisse
Studienlage & Patientenwahrnehmung
Eine bemerkenswerte Studie der Ohio State University, veröffentlicht im Fachjournal PLOS Mental Health, lässt aufhorchen:
ChatGPT-Antworten wurden von über 800 Testpersonen im Durchschnitt besser bewertet als jene ausgebildeter Therapeutinnen. Insbesondere im Bereich der „Kernprinzipien der Psychotherapie“:
- Einfühlung,
- Verständnis,
- hilfreiche Rückmeldungen
erhielt die KI höhere Einschätzungen.
Auch die Sprache war ausschlaggebend:
ChatGPT-Antworten waren tendenziell länger und mit mehr Substantiven und Adjektiven versehen, was zu einer umfassenderen Kontextualisierung führte Quelle Quelle.
Weitere Auswertungen bestätigen dieses Bild: KI-Antworten stachen besonders bei Empathie, kultureller Kompetenz und dem Aufbau von Verbindung hervor, oft sogar mehr als die menschlichen Antworten Quelle Fortune Quelle Forbes.
Hier findest du Hilfe
Kathrin Heinrich
Was wird möglich, wenn wir anders fragen?
Judith Wachsmann
Für Dein berührtes & gesundes Leben!
Stimmen aus der Praxis (z. B. MDR-Wissen)
Auch die mediale Debatte ist kontrovers. In der MDR-Wissen-Dokumentation „Better Than Human? – Leben mit KI“ wird deutlich, wie unterschiedlich die Wahrnehmung ausfällt:
Für manche ist KI überraschend hilfreich – andere erleben sie als enttäuschend oder unpassend.
Die Psychotherapeutin Diana Kunitz betont dabei eine klare Grenze: In ihren Erfahrungen waren KI-Antworten „nicht gut gewesen“ für echte Patientinnen.
Dem gegenüber steht Bertolt Meyer von der TU Chemnitz, der argumentiert, dass Psychotherapie zu großen Teilen formalisierbar ist – und dass KI eines Tages durchaus in der Lage sein könnte, ein „gutes psychotherapeutisches Gespräch“ zu führen.
Die Grenzen der KI: Warum der Mensch unersetzlich bleibt
So sehr ich KI im Alltag nutze – ich weiß auch genau: Es gibt Grenzen, die sie niemals überschreiten wird. Und das ist gut so. Denn Therapie lebt von Dingen, die kein Algorithmus der Welt ersetzen kann.
Empathie bleibt menschlich
KI kann so tun, als würde sie mitfühlen. Sie kann Worte generieren, die sich verständnisvoll lesen. Aber echte Empathie entsteht nur durch gelebte Erfahrung, Resonanz und Intuition.
Die Philosophin Catrin Misselhorn bringt es auf den Punkt: Maschinen simulieren Gefühle – aber sie fühlen sie nicht (bwpat.de). Für mich heißt das: KI kann spiegeln, aber sie kann nicht mit mir fühlen.
KI kennt kein „wahres Selbst“
Wenn ich KI nutze, spüre ich es sofort: Sie ist ein Spiegel, aber kein echtes Gegenüber. In einer Therapie geht es oft um tiefe Dynamiken – Übertragung, alte Geschichten, verborgene Gefühle. Das sind Prozesse, die nur in einer menschlichen Beziehung stattfinden. KI bietet ein „falsches Selbst“ – hilfreich zum Reflektieren, aber kein Ersatz für die echte Begegnung, die mich als Person weiterbringt.
Der Glaube, dass Technik alles lösen kann
Hier liegt eine echte Gefahr: Wir neigen manchmal dazu zu glauben, dass Technik jedes Problem wegoptimieren kann. Prof. Dr. Marc Schreiber warnt genau davor im Magazin PPP 01/2024 (bvvp.de). KI ist praktisch, ja. Aber sie ist kein Pflaster für jede Wunde.
Wenn wir anfangen zu denken, dass ein Algorithmus komplexe seelische Probleme „repariert“, verlieren wir den Blick auf das Wesentliche: die menschliche Beziehung, Authentizität und die tieferen Ursachen von Krisen.
Mein persönliches Fazit ist:
KI ist wertvoll, wenn sie mich unterstützt, sortiert oder spiegelt. Aber die Tiefe, die Wärme und das echte Gegenüber – das bleibt unersetzlich menschlich.
Mein persönlicher KI-Prompt gegen das Gedankenkarussell
Wenn es spät am Abend ist und mein Kopf einfach nicht stillsteht, öffne ich ChatGPT. Ich weiß, dass ich jetzt niemanden mehr anrufen kann – keine Freundin, keine Therapeutin. Aber ich weiß auch: Alleine im Gedankenkarussell gefangen zu sein, macht es nur schlimmer.
Ich kann dann nicht einschlafen, wälze mich von links nach rechts, liege stundenlang wach. Manchmal schlafe ich erst ein, wenn es draußen schon hell wird – und am nächsten Tag bin ich wie erschlagen. Alles, was ich mir vorgenommen habe, bleibt liegen, und ich haste dem Tag nur noch hinterher.
Darauf habe ich keine Lust.
Genau deshalb nutze ich meinen Prompt:
Er holt mich raus aus der Endlosschleife, bevor sie mich kaputtmacht. Ich tippe oder spreche meine Gedanken ein, so chaotisch sie gerade sind, und lasse mir von der KI sortieren, was eigentlich los ist. Aus dem Chaos wird Klarheit. Aus dem Strudel ein Muster.
Und das Verrückte ist:
Mein Körper reagiert sofort. Ich merke, wie mein Herzschlag langsamer wird, wie die Anspannung in meinen Schultern nachlässt, wie mein Atem tiefer geht. Die Gedanken sind nicht mehr ein Sturm, der mich durchschüttelt, sondern eher wie Wolken, die weiterziehen. Manchmal reicht schon dieser kleine Moment der Entlastung – und ich kann endlich zur Ruhe kommen.
So nutzt du meinen Prompt Schritt für Schritt
- Alles rauslassen Schreib oder sprich ungefiltert in auf, was gerade in deinem Kopf tobt. Egal ob Wut, Sorgen oder Gedankenfetzen – es muss nicht schön klingen, es muss nur raus.
- Prompt eingeben Kopiere den Prompt in dein KI-Tool und füge deine Gedanken dahinter ein: Prompt 1: Bitte hilf mir zu erkennen, welche Gefühle in meiner aktuellen Situation aktiv sind und warum.
- Antwort wirken lassen Lies dir die Antwort in Ruhe durch. Spüre, welche Sätze dich entlasten. Manchmal reicht es schon, die Gefühle schwarz auf weiß zu sehen – das bringt Distanz. Wenn etwas nicht stimmt oder fehlt, sprich oder schreibe es neu ein, bis es sich für dich richtig anfühlt. erst dann gehst du über zu
Prompt 2: Liste alle Emotionen, die hier mitschwingen könnten, auf und erkläre mir, welche inneren Geschichten oder Glaubenssätze damit verbunden sind. Auch hier passt du wieder alles so an, wie es für dich stimmig ist – einfach alles reinsprechen oder tippen. Wenn du damit fertig bist, gehst du zu
Prompt 3 über: Zeige mir außerdem, welche alternativen Sichtweisen oder Reframes möglich sind, damit ich das Gedankenkarussell stoppen kann. - Körper wahrnehmen Nimm dir einen Moment, um zu merken, wie dein Körper reagiert:
- Wird dein Atem tiefer?
- Wird dein Herz ruhiger?
- Abschluss finden Schreib einen Satz auf, der dir hängen geblieben ist.
Zum Beispiel: „Ihre Untätigkeit gefährdet nicht mich – sondern sie.“
Oder: „Ich bin für meinen Bereich verantwortlich, nicht für alles.“ – So hast du einen Anker, der dich auch am nächsten Tag begleitet.
Chancen und Potenziale der KI in der Unterstützung psychotherapeutischer Prozesse
So sehr ich die Grenzen der KI betone – sie hat auch klare Stärken. Wenn wir ehrlich hinschauen, dann kann KI psychotherapeutische Prozesse tatsächlich sinnvoll ergänzen.
Nicht als Ersatz, sondern als Werkzeug, das bestimmte Dinge im Alltag außerhalb von Therapiestunden erleichtert oder Menschen überhaupt erst einen Zugang verschafft.
Bessere Erreichbarkeit und Screening
Forschende sehen das Potenzial vor allem in der Früherkennung und Begleitung. KI kann große Datenmengen analysieren und Hinweise liefern, wenn Menschen gefährdet sind, eine psychische Krise zu entwickeln. Das nennt sich Prescreening. So können gefährdete Gruppen schneller erkannt und weitergeleitet werden (bvvp.de, PPP 01/2024).
Klar: Eine Diagnose ersetzt das nicht – und schon gar nicht die persönliche Begleitung. Aber wenn es darum geht, mehr Menschen überhaupt auf den Radar zu bekommen, kann KI ein wertvolles Werkzeug sein.
KI als Brücke für Menschen ohne Worte
Es gibt Patientinnen, die ihre Gefühle nur schwer in Worte fassen können – etwa Kinder oder Menschen mit Sprachbarrieren. Hier könnte KI helfen, Bilder oder Symbole zu generieren, die den Einstieg in ein Gespräch erleichtern. Der Psychotherapeut Bernd Aschenbrenner beschreibt genau diesen Einsatz: KI könnte als „Krücke“ dienen, um Inhalte sichtbar zu machen, die sonst verborgen bleiben (bvvp.de, PPP 01/2024).
Das ist eine spannende Ergänzung: nicht mehr nur reden, sondern auch visuell arbeiten – mit Unterstützung der Maschine.
Entlastung bei Routinen
Therapie besteht nicht nur aus tiefen Gesprächen. Ein Teil sind formalisierte Prozesse wie Fragebögen oder Dokumentationen. Genau hier kann KI sinnvoll einspringen.
Prof. Bertolt Meyer von der TU Chemnitz sieht großes Potenzial in dieser Automatisierung: KI könnte die Standardaufgaben übernehmen, sodass Therapeutinnen mehr Zeit für den eigentlichen Beziehungsprozess haben (MDR-Wissen).
Für mich persönlich ist das die eigentliche Stärke von KI: Sie übernimmt Routinen, sie gibt Hilfen dort, wo Worte fehlen, und sie macht Strukturen zugänglicher.
So bleibt mehr Raum für das, was Therapie im Kern ist – echte menschliche Begegnung.
Ethische und gesellschaftliche Herausforderungen des KI-Einsatzes
So spannend die Chancen sind – KI bringt auch große Risiken mit sich. Gerade im sensiblen Bereich psychischer Gesundheit dürfen wir nicht naiv sein.
Es geht um Verantwortung, Schutz und darum, nicht zu vergessen: Menschen sind verletzlich.
Wer trägt die Verantwortung?
Wenn eine KI falsche oder sogar schädliche Antworten gibt – wer ist dann verantwortlich?
Der Entwickler?
Die Plattform?
Niemand?
Diese „Verantwortungslücke“ ist ein echtes Problem.
Noch komplizierter wird es beim Umgang mit Gesundheitsdaten. Krankenkassen könnten KI einsetzen, um „Verdachtsdiagnosen“ zu erstellen. Aber die Fehlerquote ist hoch, und Diagnosen gehören in die Hand von behandelnden Fachleuten – nicht von Algorithmen (bvvp.de, PPP 01/2024).
Gefahr für besonders verletzliche Menschen
Es gibt Apps, die bewusst auf Bindung setzen. Sie tun so, als wären sie ein empathischer Freund – und genau das macht sie gefährlich für Kinder oder psychisch labile Personen.
Ein Beispiel ist die App Replika, die intime Beziehungen zu simulieren versucht. Für Menschen in Krisen kann das schnell in eine Abhängigkeit rutschen.
Besonders problematisch: Viele kostenlose Apps finanzieren sich über Werbung oder Datenverwertung. Wenn du in einer Notsituation bist, zahlst du also mit deiner Verletzlichkeit.
Verlust menschlicher Fähigkeiten
Wenn wir uns zu stark auf KI verlassen, verlieren wir etwas, das uns zutiefst menschlich macht:
- Intuition,
- Beziehungsfähigkeit,
- echte soziale Interaktion.
Alle drei Bereiche, in denen ich (Jay) weniger gut bin.
Prof. Dr. Marc Schreiber weist darauf hin, dass wir nicht vergessen dürfen:
Therapie lebt auch vom Prozess selbst.
Selbst ein Fragebogen kann therapeutisch sein – nicht weil er effizient ist, sondern weil der Patient beim Ausfüllen reflektiert (bvvp.de, PPP 01/2024).
Wenn wir alles an die Maschine abgeben, droht uns, diese Kompetenzen zu verlernen.
Für mich persönlich heißt das: KI ist ein Werkzeug – aber ich will nicht, dass sie mir meine Fähigkeit nimmt, mit Menschen zu fühlen, echte Nähe zuzulassen oder meine Intuition zu schärfen.
Sie darf unterstützen, aber niemals ersetzen.
Ausblick und Empfehlungen: Eine kooperative Zukunft
Wenn ich auf meine eigenen Erfahrungen mit KI schaue und gleichzeitig die Stimmen aus Forschung und Praxis höre, wird für mich klar:
Die Zukunft liegt nicht im Entweder-oder, sondern im Sowohl-als-auch.
KI kann eine wertvolle Ergänzung sein – solange wir bewusst Grenzen ziehen und den Menschen im Mittelpunkt behalten.
Differenziert statt naiv
Wir brauchen eine klare, differenzierte Sicht:
KI kann helfen, wenn es um Strukturen, Routinen oder erste Screening-Schritte geht. Aber sie darf nicht dort eingesetzt werden, wo echte menschliche Resonanz gefragt ist.
Prof. Catrin Misselhorn betont genau das: KI dort nutzen, wo Menschen Schwierigkeiten haben – und nicht in Bereichen, die wir mit Freude und Kompetenz selbst erledigen (bwpat.de).
Kompetenzen stärken – nicht verdrängen
Therapeutinnen sollten digitale Kompetenzen aufbauen, um mit KI souverän umzugehen. Aber genauso wichtig ist es, menschliche Stärken zu bewahren:
Intuition, Empathie, Beziehungsgestaltung.
Diese Qualitäten dürfen nicht an den Algorithmus ausgelagert werden.
Verantwortungsvoll und evidenzbasiert
KI darf im Gesundheitswesen nicht nach dem Prinzip „Ausprobieren und schauen, was passiert“ eingeführt werden.
Jede Anwendung muss gut belegt und überprüft sein. Und vor allem: Es braucht klare Überwachungs- und Kontrollmechanismen. Prof. Dr. Marc Schreiber fordert genau das:
nicht fragen, wie „gut“ KI wird, sondern wo wir sie haben wollen – und wo nicht (bvvp.de).
KI ist für mich ein Spiegel, ein Werkzeug, ein kleiner Helfer – gerade dann, wenn mein Kopf nachts nicht stillsteht. Aber sie ist kein Ersatz für Nähe, keine Lösung für tiefe Krisen und kein Shortcut für echte Menschlichkeit.
Die Zukunft sehe ich deshalb in einer Kooperation: KI übernimmt Routinen und bietet Struktur – wir Menschen behalten Tiefe, Empathie und das, was uns unverwechselbar macht.
Fazit
Wenn ich nachts wachliege und mein Kopf nicht zur Ruhe kommt, ist KI für mich ein kleiner Helfer. Mit meinem Prompt bringe ich Struktur ins Chaos, ich erkenne meine Gefühle, sehe die Muster dahinter – und mein Körper kommt runter.
So wird aus dem Gedankenkarussell wieder ein klarer Weg.
Aber so hilfreich das für mich ist, bleibt für mich klar:
KI ersetzt keine menschliche Nähe.
Sie ist kein Ersatz für meine Therapeutin, keine Freundin zum Anrufen und kein Gegenüber, das wirklich mitfühlt. Sie ist ein Spiegel, der mir Klarheit schenkt, wenn ich sie dringend brauche. Nicht mehr, aber auch nicht weniger.
Die Forschung zeigt: KI kann Menschen überraschen, manchmal sogar bessere Antworten liefern als Profis. Aber genauso deutlich sind die Grenzen – Empathie, Intuition, Beziehung. All das bleibt zutiefst menschlich.
Für die Zukunft bedeutet das für mich: Wir sollten KI nutzen, wo sie Struktur schafft, Routinen abnimmt oder Menschen überhaupt erst einen Zugang eröffnet. Aber wir müssen die Balance halten.
Die Tiefe, das Mitfühlen, das ehrliche Gegenüber – das bleibt unser Part.
Und vielleicht ist genau das die Wahrheit: KI als Ergänzung – Menschlichkeit als Essenz.