ChatGPT als Helfer in Krisenzeiten
Jugendliche versuchen mit Chat GPT eine Psychotherapie zu ersetzen

Fragen an ChatGPT werden immer privater. Statt nach Hilfe bei Schulprojekten, Hausaufgaben und Alltagsthemen zu fragen, wenden sich immer mehr Menschen nun auch mit ganz persönlichen Problemen an den Chatbot.
Ein aktueller Trend auf TikTok zeigt: Immer mehr Jugendliche versuchen, mit ChatGPT eine Psychotherapie zu ersetzen. Es werden Prompts geteilt, mit denen die KI angeblich professionelle Therapiesitzungen abhalten kann.
Warum wenden sich Jugendliche mit psychischen Erkrankungen an ChatGPT?
Viele Menschen nutzen KI intuitiv und beschränken sich dabei nicht auf den schulischen, beruflichen oder alltagspraktischen Kontext. Dass ChatGPT als Therapeut:in einspringen soll, hat aber noch andere, tiefer greifende Gründe. Sich mit psychischen Problemen an Eltern, Freund:innen oder andere Vertrauenspersonen zu wenden, kann große Überwindung kosten. ChatGPT dagegen ist jederzeit erreichbar und verurteilt nicht. Bei Familie und Freund:innen geht ein gut gemeinter Rat schnell mit dem Druck einher, ihn umzusetzen – bei der KI lässt sich das Gespräch hingegen problemlos abbrechen.
Darin sehen Expert:innen auch die Stärke der KI: Die wertfreien Antworten des Chatbots könnten Betroffene ermutigen, doch über ihre Situation zu sprechen und sich überhaupt erst mit Möglichkeiten zur Stärkung der mentalen Gesundheit auseinanderzusetzen.
Studien belegen, dass mentale Belastungen und psychische Erkrankungen unter Jugendlichen immer häufiger werden. Betroffene Jugendliche, die bereits auf der Suche nach professioneller Hilfe sind, müssen oft lange Wartezeiten aushalten oder finden in ihrer Region nicht die richtigen Spezialist:innen.
Die Gefahren der KI-Therapie

Dass ChatGPT aber nicht der richtige Ansprechpartner für eine professionelle Therapie ist, zeigt ein tragischer Fall aus den USA besonders eindrücklich. Die Eltern eines verstorbenen Teenagers werfen OpenAI vor, dass ihr Sohn von dem Chatbot in seinen Suizidgedanken bestärkt wurde.
Die KI kann sich keine eigene Meinung bilden. Gerade ChatGPT ist dafür bekannt, meistens einfach zuzustimmen – genau das kann in solchen Fällen richtig gefährlich werden. Bei direkt gestellten Anfragen zum Thema Suizid verweist ChatGPT – zumindest in Deutschland – zwar inzwischen an Hilfsangebote. In der Realität sind die Anfragen aber oft nicht so direkt und werden erst in einem längeren Chatverlauf mit der KI geteilt. Dann könnte die Antwort schon wieder anders aussehen.
OpenAI kündigte daraufhin eine Art Kindersicherung an, die es Eltern ermöglicht ihren Account mit dem des Kindes zu verknüpfen, altersgerechte Verhaltensregeln festzulegen und Benachrichtigungen zu erhalten, wenn die Software eine Notlage feststellt.
Diese akute Gefahr ist nicht das einzige Problem, das aufkommt, wenn private und sensible Themen mit einer KI besprochen werden. Die Antworten von ChatGPT basieren nicht auf psychologischem Fachwissen, sondern aus ganz vielen verschiedenen Datenmengen, die im Internet kursieren. Eine psychotherapeutische Behandlung basiert dagegen auf einer umfassenden Diagnostik, bei der auch körperliche Untersuchungen und biografische Erfahrungen berücksichtigt werden. Das bleibt für eine KI unerreichbar. Zudem können Antworten fehlerhaft sein und Betroffenen unpassende Empfehlungen geben. Menschen mit psychischen Erkrankungen fühlen sich oft allein und unverstanden. Menschlicher Kontakt, echtes Verständnis und das Eingehen auf individuelle Problematiken sind in einer Psychotherapie extrem wichtig und können nicht von ChatGPT ersetzt werden.
Genauso wichtig ist Vertrauen. Ein Gespräch mit ChatGPT fühlt sich erstmal geheim und privat an, in Wahrheit sind die Daten, die dort eingegeben werden, aber kaum geschützt. Sie werden gespeichert und genutzt, um die Anwendungen von OpenAI zu trainieren und zu verbessern.
Welche Vor- und Nachteile es hat, sich bei psychischen Problemen an eine KI zu wenden, haben wir nochmal in einer Tabelle zusammengefasst.
Vor- und Nachteile einer KI-Beratung
Vorteile ✅ | Nachteile ❌ |
Antwortet in Krisensituationen sofort | Kann fehlerhafte Antworten und unpassende Empfehlungen geben |
Niedrige Hemmschwelle bei der Kontaktaufnahme | Kein menschlicher Kontakt |
Kompakte Schritt für Schritt Anweisungen | Kaum Datenschutz |
Wie kann ChatGPT genutzt werden?
Chat GPT kann also keine Therapie ersetzen, aber in akuten Krisensituationen ein hilfreiches Tool sein. Die KI kann dir außerdem dabei helfen, langfristig Unterstützung zu bekommen. Du kannst dir zum Beispiel
1️⃣Eine Übersicht von Therapeut:innen in deiner Stadt erstellen lassen.
2️⃣Einen Zeitplan mit ihren jeweiligen Sprechzeiten zusammenstellen lassen.
So wird die Recherche weniger aufwendig für dich und du findest vielleicht schneller einen Platz.
Wenn du merkst, dass dich etwas belastet und nicht direkt mit jemandem aus deinem Umfeld darüber sprechen willst, musst du dich nicht an Chat GPT wenden. Im nächsten Absatz findest du einige Angebote, die dir in Krisensituationen weiterhelfen können.
Lösungswege und Hilfe – ohne ChatGPT!
Du hast Probleme mit Cyberbullying, Sextortion oder anderen Online-Themen? Ausgebildete Jugendliche und junge Erwachsene helfen dir – ganz vertraulich und kostenlos. Sie werden von Pädagog:innen und Psycholog:innen unterstützt. Die Kontaktaufnahme ist genauso einfach wie die zu ChatGPT, aber du wirst von echten Menschen beraten, die sich mit den Themen auskennen und auf dich persönlich eingehen können.
Auch für andere Krisen gibt es Hilfsangebote, an die du dich wenden kannst. Bei psychischer Belastung kannst du zum Beispiel die Online-Beratung der „Nummer gegen Kummer", den Service von Jugend Notmail oder die Mailberatung [U25] der Caritas nutzen. Schau dir unsere Liste zu weiteren Hilfsangeboten an.
Du willst mehr zum verantwortungsvollen Umgang mit KI wissen? Schau dir unser Projekt JUUU-KI! an!

JUUU-KI! ist ein neues Projekt von JUUUPORT e.V., gefördert vom Bundesfamilienministerium im Rahmen des Bundesprogramms „Demokratie leben!“. Ziel ist es, junge Menschen für die Chancen und Risiken Künstlicher Intelligenz (KI) zu sensibilisieren. Speziell ausgebildete KI-Scouts informieren Gleichaltrige über Themen wie Fake News, Hassrede und digitale Manipulation. In KI-Laboren erstellen sie eigene Inhalte – von Videos bis zu interaktiven Stories – und klären über verantwortungsvollen KI-Einsatz auf.