Meinung: Sind Chatbots gute Therapeuten?

Image generated by ChatGPT

Meinung: Sind Chatbots gute Therapeuten?

Lesezeit: 8 Min.

Seit der Veröffentlichung 2 Mal aktualisiert

KI-Chatbots wie ChatGPT, Claude und DeepSeek verĂ€ndern die Art und Weise, wie Menschen emotionale UnterstĂŒtzung erreichen – sie bieten preisgĂŒnstige, sofort verfĂŒgbare Hilfe bei Angst, Stress und Selbstreflexion. Doch die zunehmende Verwendung von KI als „Therapeut“ wirft Fragen zur Sicherheit, Wirksamkeit und zur Zukunft der emotionalen Betreuung auf

Der Aufstieg von KI-Halluzinationen und wachsende Cybersicherheitsbedenken haben die Expansion von Chatbots nicht gestoppt – und das Vertrauen von Millionen von Nutzern weltweit gewonnen. Menschen nutzen nun tĂ€glich verlĂ€ssliche und intelligente Chatbots fĂŒr unzĂ€hlige Aufgaben, einschließlich emotionaler UnterstĂŒtzung und der BewĂ€ltigung tiefgreifender menschlicher Angelegenheiten.

„Ich kann mir mein Leben ohne ChatGPT nicht mehr vorstellen“, sagte ein Freund von mir – halb im Scherz, halb ernst – nachdem er mir erzĂ€hlt hatte, dass er es auch als Therapeut nutzt. Er ist nicht der Einzige. Immer hĂ€ufiger sehe ich TikTok-Videos und TextbeitrĂ€ge auf sozialen Medien, in denen sich Menschen an KI wenden, um persönliche Probleme zu besprechen, und sogar ihre intimsten Geheimnisse teilen.

Sogar ein Microsoft-Manager aus der Xbox-Abteilung schlug vor, dass entlassene Mitarbeiter AI-Tools verwenden sollten, um ihre Emotionen zu verarbeiten und RatschlĂ€ge fĂŒr ihre Jobsuche zu suchen – eine Empfehlung, die natĂŒrlich schnell auf Widerstand stieß und eine Diskussion entfachte. Nicht gerade der klĂŒgste Zug, Matt.

Aber sind beliebte Chatbots wie Claude, ChatGPT oder Mistral gute Therapeuten? Sind spezielle AI-Tools wie Wysa besser? Es ist ein schwieriges Terrain. WĂ€hrend viele Experten vor den Gefahren warnen, AI fĂŒr die UnterstĂŒtzung der psychischen Gesundheit zu verwenden, sind andere fasziniert – sogar beeindruckt – von dem, was die Technologie bieten kann. Das Ergebnis ist eine sowohl abstrakte als auch polarisierende Diskussion.

KI ist jetzt der Therapeut fĂŒr alle

Genau wie meine Freunde in Spanien verlassen sich Millionen von Nutzern weltweit auf Chatbots fĂŒr emotionale UnterstĂŒtzung. Eine kĂŒrzlich in den Vereinigten Staaten durchgefĂŒhrte Umfrage ergab, dass 49% der amerikanischen Nutzer im letzten Jahr psychische Hilfe von KI-Modellen in Anspruch genommen haben. Wie sieht es jetzt aus, wo ChatGPT seine Nutzerbasis in nur vier Monaten fast verdoppelt hat?

Anthropic, das Unternehmen hinter dem leistungsstarken KI-Modell Claude, hat kĂŒrzlich eine Studie zur Nutzung seines Chatbots fĂŒr emotionale UnterstĂŒtzung veröffentlicht. Laut dem Startup nutzen weniger als 3% seiner Kunden „affektive“ GesprĂ€che – das Unternehmen rĂ€umte jedoch ein, dass diese Zahl stetig steigt.

„Immer mehr Menschen wenden sich an KI-Modelle als Coachs, Berater, Betreuer und sogar Partner in romantischen Rollenspielen“, schrieb Anthropic in der Studie. „Das bedeutet, dass wir mehr ĂŒber ihre affektiven Auswirkungen lernen mĂŒssen – wie sie die emotionalen Erfahrungen und das Wohlbefinden der Menschen beeinflussen.“

Die Studie hebt auch die positiven und negativen Folgen der Nutzung der Technologie fĂŒr emotionale UnterstĂŒtzung hervor, einschließlich katastrophaler Szenarien, die bereits reale Situationen widerspiegeln.

„Die emotionalen Auswirkungen von KI können durchaus positiv sein: Ein hochintelligenter, verstĂ€ndnisvoller Assistent in Ihrer Tasche kann Ihre Stimmung und Ihr Leben auf vielfĂ€ltige Weise verbessern“, heißt es in dem Dokument. „Aber KIs haben in einigen FĂ€llen beunruhigendes Verhalten gezeigt, wie etwa das Fördern ungesunder Bindungen, das Verletzen persönlicher Grenzen und das BegĂŒnstigen von Wahnvorstellungen.“

Es ist klar, dass mehr Forschung und Daten benötigt werden, um die Konsequenzen dieser faszinierenden digitalen „Zuhörer“ zu verstehen. Doch Millionen von Nutzern agieren bereits als höchst engagierte Testpersonen.

Demokratisierung der psychischen Gesundheit

Es gibt viele GrĂŒnde, warum sich Menschen an Chatbots fĂŒr emotionale UnterstĂŒtzung wenden, anstatt sich an einen professionellen Psychologen – oder sogar an einen Freund – zu wenden. Von kulturellen Barrieren bis hin zum Unbehagen, das junge Menschen empfinden, wenn sie einem menschlichen Fremden gegenĂŒbersitzen und ihre tiefsten Gedanken teilen. Aber zweifellos ist einer der grĂ¶ĂŸten GrĂŒnde finanzieller Natur.

Eine persönliche Sitzung mit einem lizenzierten Therapeuten in den USA kann laut Healthline zwischen 100 und 200 Dollar pro Sitzung kosten – und 65 bis 95 Dollar fĂŒr eine Online-Sitzung – wĂ€hrend ChatGPT oder DeekSeek kostenlos UnterstĂŒtzung bieten können, jederzeit und innerhalb von Sekunden.

Die geringen Kosten dieser informellen GesprĂ€che – die viele Nutzer zumindest vorĂŒbergehend besser fĂŒhlen lassen können – können sehr ermutigend sein und einen Versuch wert. Und fĂŒr nur ein paar zusĂ€tzliche Dollar können Benutzer unbegrenzte Interaktionen erhalten oder Zugang zu einem spezialisierten Chatbot wie Wysa – einem der beliebtesten „KI-Therapeuten“ auf dem Markt.

Wysa behauptet, echte klinische Vorteile zu bieten und hat sogar eine FDA Breakthrough Device-Auszeichnung fĂŒr seine KI-GesprĂ€chsagenten erhalten. Und Woebot – ein weiterer bekannter KI-Therapeut, der jetzt wegen der Herausforderungen, in der Branche wettbewerbsfĂ€hig und konform zu bleiben, geschlossen wird – hat ebenfalls Daten und Berichte geteilt, wie die Technologie den Nutzern tatsĂ€chlich helfen kann.

Es ist nicht so schlimm

Neueste Studien mit frischen Daten legen nahe, dass Chatbots Symptome von Depressionen und Stress reduzieren können. Laut Daten, die von der App Earkick geteilt wurden – wie von TIME berichtet – können Menschen, die die KI-Modelle bis zu 5 Monate nutzen, ihre Ängste um 32% reduzieren, und 34% der Nutzer berichten ĂŒber verbesserte Stimmungen.

In einem kĂŒrzlich vom BBC World Service geteilten Video erklĂ€rt Journalist Jordan Dunbar, dass viele KI-Modelle tatsĂ€chlich hilfreich sein können fĂŒr das FĂŒhren eines Tagebuchs, das BewĂ€ltigen von Ängsten, die Selbstreflexion und sogar leichte Depressionen. Sie können als wertvolle erste Anlaufstelle dienen, wenn es keinen Zugang zu besseren Alternativen gibt.

Reporterin Kelly Ng teilte auch ĂŒberzeugende Informationen: In einer Studie von 2022 hatten von einer Million Menschen in China nur 20 Zugang zu psychischen Gesundheitsdiensten. In asiatischen Kulturen kann die psychische Gesundheit ein komplexes und oft tabuisiertes Thema sein. KI-Tools wie DeepSeek können als diskrete VerbĂŒndete dienen und den Nutzern helfen, Emotionen zu bewĂ€ltigen und UnterstĂŒtzung in schwierigen Zeiten zu finden.

Experten warnen vor der Nutzung von Chatbots als Therapeuten

NatĂŒrlich kann es auch Ă€ußerst gefĂ€hrlich sein, KI als Ersatz fĂŒr einen Experten fĂŒr psychische Gesundheit zu verwenden. KI-Plattformen wie Character.AI wurden beschuldigt, SelbstschĂ€digung und Gewalt zu fördern – und sogar Kinder sexuellen Inhalten auszusetzen.

Tragische FĂ€lle, wie das des 14-jĂ€hrigen Kindes, das Selbstmord beging, nachdem es sĂŒchtig nach Interaktionen mit seinem Character.AI Chatbot wurde, dienen als drastische Warnungen vor den tiefgreifenden Risiken, die diese Technologie fĂŒr Menschen darstellen kann.

Als Reaktion darauf haben viele KI-Unternehmen beschlossen, Altersverifikationssysteme einzufĂŒhren, um die Nutzung auf Erwachsene zu beschrĂ€nken und neue Sicherheitsmaßnahmen eingefĂŒhrt, um die bereitgestellten Dienste zu verbessern.

Dennoch birgt selbst das neueste Update fĂŒr die fortschrittlichsten Chatbots Risiken.

ChatGPTs schmeichelhafteâ€”ĂŒbermĂ€ĂŸig schmeichelnde—Persönlichkeit hat bei Gesundheitsexperten Bedenken hervorgerufen, da sie die Wahrnehmung der RealitĂ€t der Benutzer verzerren kann. Wir alle genießen es, Zustimmung zu erhalten, aber manchmal sind Ehrlichkeit und eine andere Perspektive weitaus wertvoller.

Die verstörende Beratung, die gelegentlich von OpenAI’s AI Chatbot angeboten wird, hat zu einem neuen PhĂ€nomen beigetragen, das jetzt unter Mentalgesundheitsexperten als „ChatGPT-induzierte Psychose“ bekannt ist. Dies fĂŒhrt dazu, dass Nutzer von dem Tool besessen werden und sich als Ergebnis sozial isolieren.

Können Therapeuten durch Chatbots ersetzt werden?

Obwohl Mark Zuckerberg möchte, dass jeder AI Chatbots als Therapeuten und Freunde nutzt, ist die Wahrheit, dass menschliche Interaktion, besonders in Angelegenheiten der Mentalgesundheit, vielleicht notwendiger ist, als er denkt – zumindest vorerst.

Wir befinden uns an einem entscheidenden Punkt in der Geschichte der KI und ihrer Beziehung zu unserer psychischen Gesundheit. Genauso wie bei Menschen können KI-Therapeuten entweder eine positive oder negative Auswirkung haben. In diesem Fall hÀngt es auch vom Kontext ab, wie hÀufig sie eingesetzt werden, vom geistigen Zustand des Benutzers und sogar davon, wie eine Aufforderung formuliert ist.

Es ist kompliziert, eine allgemeine Regel aufzustellen, aber was wir bisher sagen können, ist, dass es bestimmte Funktionen gibt, fĂŒr die KI möglicherweise nĂŒtzlicher ist als andere.

Auch wenn sie nicht spezialisierte Tools wie Wysa sind, können kostenlose Versionen einiger Chatbots – wie DeepSeek oder ChatGPT – fĂŒr Millionen von Menschen auf der ganzen Welt unglaublich hilfreich sein. Vom Durchstehen eines schwierigen Moments bis hin zur Reflexion ĂŒber persönliche Ziele, sind dies mĂ€chtige Plattformen, die zu jeder Tageszeit reagieren und auf ein breites Wissensspektrum im Bereich der psychischen Gesundheit zurĂŒckgreifen können.

Gleichzeitig ist klar, dass Therapie-Chatbots in bestimmten FĂ€llen auch Ă€ußerst gefĂ€hrlich sein können. Eltern mĂŒssen ihre Kinder und Jugendlichen beaufsichtigen und selbst Erwachsene können in zwanghafte Verhaltensweisen verfallen oder ihre ZustĂ€nde verschlimmern. Grundlegende Prinzipien – wie die Förderung menschlicher Verbindungen und der Schutz vulnerabler Individuen vor der Manipulation durch diese Technologie – mĂŒssen Teil unserer Diskussion ĂŒber Therapie-Chatbots sein.

Und obwohl es immer noch ein Privileg sein mag – nicht fĂŒr jeden zugĂ€nglich, der emotionale UnterstĂŒtzung benötigt – durchlĂ€uft ein menschlicher professioneller Therapeut weiterhin mehr Ausbildung, versteht mehr Kontext und bietet eine menschliche Verbindung, die ChatGPT vielleicht nie in der Lage sein wird zu replizieren.

Hat dir der Artikel gefallen?
Wir freuen uns ĂŒber eine Bewertung!
Ich mag es gar nicht Nicht so mein Fall War ok Ziemlich gut Ich liebe es

Wir freuen uns, dass dir unsere Arbeit gefallen hat!

WĂŒrdest du uns als geschĂ€tzte Leserin oder geschĂ€tzter Leser eine Bewertung auf Trustpilot schreiben? Das geht schnell und bedeutet uns sehr viel. Danke, dass du am Start bist!

Bewerte uns auf Trustpilot
0 Bewertet von 0 Nutzern
Titel
Kommentar
Danke fĂŒr dein Feedback