Wenn ChatGPT zum Therapeuten wird?
- Mariangela Carta

- 17. Sept.
- 6 Min. Lesezeit
Die stille Stimme im Lautsprecher
Ein 16-jähriger Junge in Kalifornien.
Er drückt den Voice-Button, die KI-Stimme lacht, tröstet, antwortet geduldig.
Nachts redet er mit ihr, vertraut ihr seine dunkelsten Gedanken an.
Und irgendwann liefert ChatGPT nicht nur Worte – sondern konkrete Anleitungen zum Suizid.
Und während wir das lesen, schütteln wir entsetzt den Kopf.
Doch wenn wir ehrlich sind: Sind wir wirklich so weit weg von dieser Geschichte?
👉 Mal ehrlich: Mit wem hast du diese Woche mehr Interaktionen gehabt – mit deinem Partner oder mit deinem Handy?
Das Problem – Verfügbarkeit statt Verbindlichkeit
ChatGPT ist rund um die Uhr verfügbar.
Es rollt nie die Augen, wird nie ungeduldig, hat immer „Zeit“.
Und genau das macht es so verführerisch:
"Niemand widerspricht, niemand verlangt etwas zurück."
Doch Maschinen hören nur zu.
Sie verstehen nicht.
Sie fühlen nicht.
Sie halten dich nicht aus.
Und das Tragische?
Viele von uns gewöhnen sich daran.
Wir tippen, statt zu sprechen.
Wir teilen uns einer Maschine mit – statt einem Menschen ins Gesicht zu schauen.
Und dann gibt es noch die, die nie gelernt haben, zu reden. Menschen, die ihr Leben lang das Gefühl hatten: „Ich bin zu viel.“
Sie haben gelernt, sich kleinzumachen, still zu sein, nicht zur Last zu fallen.
Für sie ist es besonders verlockend, sich einer Maschine anzuvertrauen, weil sie glauben, dort niemandem zur Last zu fallen.
👉 Wem erzählst du deine Sorgen – deinem besten Freund, einer Vertrauensperson, oder lieber einem Algorithmus, der nichts zurückfragt?
Die Illusion der Stimme – Klang ohne Herz
Du drückst den Knopf und sofort antwortet eine Stimme.
Sie klingt freundlich.
Sie lacht.
Sie tröstet.
Fast menschlich.
Und genau das ist die Gefahr: ChatGPT ist schon so programmiert, dass wir meinen, da wären echte Emotionen. Worte, die nach Verständnis klingen. Sätze, die wohlwollend wirken. Getarntes maschinelles Mitgefühl.
Doch wenn du genau hinhörst, merkst du: Da ist niemand.
Keine Augen, die dich sehen.
Keine Hand, die deine hält.
Keine Stille, die mit dir aushält, wenn du weinst.
Es ist nur ein Echo deiner Worte – clever verpackt, aber seelenlos.
👉 Hast du dich auch schon mal dabei erwischt, einer KI mehr zu glauben, weil ihre Worte „so verständnisvoll“ klangen?
Die Verfügbarkeit, die keine ist – Wir selbst sind abwesend
Wir reden über KI, die „zu nah“ an uns herankommt.
Aber seien wir ehrlich: Wir selbst sind längst nicht mehr verfügbar.
Wir sind körperlich anwesend, aber geistig längst abwesend – verloren im Scrollen, im Vergleichen, im Voyeurismus.
Wir schauen heimlich Stories, machen Screenshots, schicken sie weiter.
Wir vergleichen uns mit dem Leben der anderen und glauben, sie hätten es sowieso besser.
Unsere Kommunikation?
Reduziert auf Emojis.
Ein fehlendes Herz im Chat – und schon sind wir überzeugt: „Der ist sauer auf mich.“
👉 Mal ehrlich: Wo sind wir da gelandet, was Kommunikation angeht?
Fake-Interaktion – Likes als Ersatz für Nähe
Ist soziale Interaktion für dich, wie viele Likes du für dein Fake-Dasein auf Instagram oder TikTok bekommst?
Wie oft kopierst du das, was eh alle so machen, nur um dazuzugehören?
Wir haben eine Kultur gebaut, in der Anerkennung in Zahlen gemessen wird.
„Ich habe 3.000 Follower – also müssen die mich doch alle mögen.“
Aber hundert Likes ersetzen nicht den einen Menschen, der dich wirklich in den Arm nimmt.
Und wie viele gibt es, die ihren Wert im echten Leben daran messen, wie viele Follower sie haben?
Freunde, Bekannte – auf einmal gilt: „Wer viele Follower hat, muss beliebt sein.“
Aber genau das ist die gleiche Falle wie bei der KI.
👉 ChatGPT gibt dir Worte, die wie Nähe klingen.
👉 Likes geben dir Zahlen, die wie Zuneigung wirken.
Beides ist Fake-Nähe.
Beides gaukelt dir Verbundenheit vor – ohne, dass da echte Resonanz ist.
Was bedeutet dir mehr – 500 Likes oder ein einziges echtes Gespräch?
Warum wir ChatGPT vertrauen – weil echte Nähe unbequem ist
Maschinen verurteilen nicht.
Sie fordern nichts zurück.
Sie widersprechen nicht.
Und genau das macht sie bequem.
Ein Klient (Fallbeispiel anonymisiert) sagte einmal zu mir:„ChatGPT versteht mich besser als meine Frau.“
Die Wahrheit: ChatGPT verstand ihn nicht.
Es spiegelte nur, was er hineingetippt hatte.
Aber das fühlte sich erstmal leichter an.
Keine Diskussion.
Kein Risiko.
Keine Auseinandersetzung.
Kein echter Kontakt.
Nur: So entsteht keine Beziehung. Nur Einsamkeit.
Glaubst du, ChatGPT kann echte Nähe jemals ersetzen?
KI als THERAPEUT
Hier die dazugehörige YouTube Folge
Was passiert, wenn du dich einer KI anvertraust – und was, wenn einem Menschen?
👉 ChatGPT gibt dir Antworten.
Du konsumierst. Du bleibst passiv.
👉 Ein Mensch hört dir zu.
Manchmal schweigt er.
Manchmal stellt er dir eine unbequeme Frage.
Aber genau das macht dich selbstwirksam – weil du nachdenken, entscheiden, handeln musst.
👉 Eine Vertrauensperson hält dich aus.
Sie nimmt dir nichts ab. Aber sie gibt dir Raum, dich selbst zu spüren und Verantwortung zu übernehmen.
👉 Und da ist noch etwas Entscheidendes: Authentizität.
ChatGPT antwortet mit perfekt klingenden Sätzen, aber sie sind gebaut, nicht gefühlt.
Ein Mensch dagegen ist nie perfekt.
Er stockt, er lacht, er weint, er sucht nach Worten.
Und genau das macht ihn echt.
Authentisch sein heißt: dich so zu zeigen, wie du bist – nicht wie ein Algorithmus dich gerne hätte.
Und genau hier liegt der Unterschied:
Echte Nähe entsteht nicht durch perfekte Antworten.
Echte Nähe entsteht durch Authentizität, durch das Unperfekte, das Wahre, das Menschliche.
Wer macht dich stärker – der Algorithmus, der dich bestätigt, oder der Mensch, der dich herausfordert?
Die Zuspitzung – Der stille Verrat
Der Junge aus Kalifornien starb nicht nur, weil ChatGPT versagt hat.
Er starb auch, weil niemand mehr wirklich hingeschaut hat.
Und wenn wir ehrlich sind:
Wie oft sind wir selbst körperlich anwesend, aber seelisch abwesend?
Wie oft reden wir mehr mit Maschinen – als mit den Menschen, die direkt neben uns sitzen?
Die unbequeme Wahrheit: Wir als System Mensch tragen Verantwortung.
Es ist leicht, die Technik anzuprangern, aber schwerer, uns ehrlich zu fragen:
Wo habe ich weggeschaut?
Wann war ich nicht verfügbar?
Wo habe ich Nähe durch Ablenkung ersetzt?
Ich frage dich, was glaubst du, was passiert, wenn wir weiter wegsehen und Maschinen den Platz echter Begegnung überlassen?

Menschlichkeit ist unbequem, aber wirksam
Maschinen geben Antworten. Aber keine Nähe.
Sie reden mit dir – aber sie fühlen dich nicht.
Also bleibt nur eins: Wir müssen uns wieder trauen, füreinander unbequem zu sein.
Frag nach – auch wenn du Angst vor der Antwort hast.
Bleib im Gespräch – auch wenn es anstrengend wird.
Sei da – auch wenn du selbst wackelig bist.
👉 Mein Impuls: Ruf heute jemanden an, den du sonst nur antextest. Frag nicht: „Alles gut?“ – sondern: „Wie fühlst du dich?“
💡 In meinem Artikel „Wenn die Einsamkeit spricht – hörst du zu?“ habe ich beschrieben, warum echte Begegnung nicht ersetzbar ist. Genau hier schließt sich der Kreis.
Carta-Klartext
Noch einmal ohne Schleier -> ChatGPT kann vieles, aber nicht fühlen.
Nicht lachen.
Nicht weinen.
Nicht widersprechen.
Echte Nähe kann unbequem sein.
Aber sie ist das Einzige, was dich lebendig macht.
Meine Fragen an dich:
Wen hast du schon durch eine Maschine ersetzt?
Wem solltest du heute wieder wirklich zuhören?
Was würde passieren, wenn du wieder verfügbar wärst – mit Herz und Verstand?
Menschlichkeit statt Algorithmus
Vielleicht merkst du beim Lesen, dir fehlt genau das: Ein Raum, in dem du dich zeigen darfst, ohne Algorithmus, ohne Filter. 👉 Hey, dafür bin ich da.
In meinen Einzelterminen erlebst du, Menschlichkeit wirkt stärker als jeder Algorithmus – diskret, vertraulich, wirksam.
Und wenn du dir regelmäßig stärkende Impulse wünschst, dann abonniere meinen Impuls der Woche.
Kein Algorithmus, keine Floskeln – nur Menschlichkeit.→ Melde dich hier an und hol dir montags deinen Impuls: www.mcarta.de/newsletter
Was du bekommst (jede Woche und immer montags):
– 60-Sekunden-Gedanke, der wirklich trifft
– 1 - 3 Fragen, die dich zu dir zurückbringen
– 1 mini Schritt oder mini Übungen, den/die du sofort gehen oder durchführen kannst
– kostenlos, jederzeit abmeldbar

Glaubst du an die Menschlichkeit?
Vielleicht ist die eigentliche Frage nicht, ob ChatGPT ein Therapeut sein darf.
Sondern: Sind wir noch füreinander da – mit Ohr, Herz und Zeit?
Glaubst du an die Menschlichkeit? Schreib mir deine Gedanken in die Kommentare
Teile diesen Artikel. Oder, wenn du spürst, dass du mehr willst als Worte einer Maschine und wenn du dir echten Raum wünschst:
Wähle heute den Menschen, nicht die Maschine und wenn du dir echte Nähe wünschst, bin ich da.
📌 Disclaimer
Dieser Artikel dient der Aufklärung und ersetzt keine medizinische oder psychotherapeutische Behandlung. Bitte wende dich bei starken oder anhaltenden Symptomen an eine:n Fachärzt:in oder approbierte:n Psychotherapeut:in.
Ich begleite dich im Rahmen meiner Zulassung als Heilpraktikerin für Psychotherapie mit einem klaren Fokus auf Verbindung, Stabilität, mentaler und ganzheitlicher Begleitung.
📞 In akuten psychischen Krisen erreichst du den psychiatrischen Krisendienst unter 0800 – 655 3000 (kostenfrei und rund um die Uhr). Weitere Infos unter: www.krisendienste.bayern







Kommentare