Meinung: Sind Chatbots gute Therapeuten?

Image generated by ChatGPT

Meinung: Sind Chatbots gute Therapeuten?

Lesezeit: 8 Min.

KI-Chatbots wie ChatGPT, Claude und DeepSeek verändern die Art und Weise, wie Menschen emotionale Unterstützung erreichen – sie bieten preisgünstige, sofort verfügbare Hilfe bei Angst, Stress und Selbstreflexion. Doch die zunehmende Verwendung von KI als „Therapeut“ wirft Fragen zur Sicherheit, Wirksamkeit und zur Zukunft der emotionalen Betreuung auf

Der Aufstieg von KI-Halluzinationen und wachsende Cybersicherheitsbedenken haben die Expansion von Chatbots nicht gestoppt – und das Vertrauen von Millionen von Nutzern weltweit gewonnen. Menschen nutzen nun täglich verlässliche und intelligente Chatbots für unzählige Aufgaben, einschließlich emotionaler Unterstützung und der Bewältigung tiefgreifender menschlicher Angelegenheiten.

„Ich kann mir mein Leben ohne ChatGPT nicht mehr vorstellen“, sagte ein Freund von mir – halb im Scherz, halb ernst – nachdem er mir erzählt hatte, dass er es auch als Therapeut nutzt. Er ist nicht der Einzige. Immer häufiger sehe ich TikTok-Videos und Textbeiträge auf sozialen Medien, in denen sich Menschen an KI wenden, um persönliche Probleme zu besprechen, und sogar ihre intimsten Geheimnisse teilen.

Sogar ein Microsoft-Manager aus der Xbox-Abteilung schlug vor, dass entlassene Mitarbeiter AI-Tools verwenden sollten, um ihre Emotionen zu verarbeiten und Ratschläge für ihre Jobsuche zu suchen – eine Empfehlung, die natürlich schnell auf Widerstand stieß und eine Diskussion entfachte. Nicht gerade der klügste Zug, Matt.

Aber sind beliebte Chatbots wie Claude, ChatGPT oder Mistral gute Therapeuten? Sind spezielle AI-Tools wie Wysa besser? Es ist ein schwieriges Terrain. Während viele Experten vor den Gefahren warnen, AI für die Unterstützung der psychischen Gesundheit zu verwenden, sind andere fasziniert – sogar beeindruckt – von dem, was die Technologie bieten kann. Das Ergebnis ist eine sowohl abstrakte als auch polarisierende Diskussion.

KI ist jetzt der Therapeut für alle

Genau wie meine Freunde in Spanien verlassen sich Millionen von Nutzern weltweit auf Chatbots für emotionale Unterstützung. Eine kürzlich in den Vereinigten Staaten durchgeführte Umfrage ergab, dass 49% der amerikanischen Nutzer im letzten Jahr psychische Hilfe von KI-Modellen in Anspruch genommen haben. Wie sieht es jetzt aus, wo ChatGPT seine Nutzerbasis in nur vier Monaten fast verdoppelt hat?

Anthropic, das Unternehmen hinter dem leistungsstarken KI-Modell Claude, hat kürzlich eine Studie zur Nutzung seines Chatbots für emotionale Unterstützung veröffentlicht. Laut dem Startup nutzen weniger als 3% seiner Kunden „affektive“ Gespräche – das Unternehmen räumte jedoch ein, dass diese Zahl stetig steigt.

„Immer mehr Menschen wenden sich an KI-Modelle als Coachs, Berater, Betreuer und sogar Partner in romantischen Rollenspielen“, schrieb Anthropic in der Studie. „Das bedeutet, dass wir mehr über ihre affektiven Auswirkungen lernen müssen – wie sie die emotionalen Erfahrungen und das Wohlbefinden der Menschen beeinflussen.“

Die Studie hebt auch die positiven und negativen Folgen der Nutzung der Technologie für emotionale Unterstützung hervor, einschließlich katastrophaler Szenarien, die bereits reale Situationen widerspiegeln.

„Die emotionalen Auswirkungen von KI können durchaus positiv sein: Ein hochintelligenter, verständnisvoller Assistent in Ihrer Tasche kann Ihre Stimmung und Ihr Leben auf vielfältige Weise verbessern“, heißt es in dem Dokument. „Aber KIs haben in einigen Fällen beunruhigendes Verhalten gezeigt, wie etwa das Fördern ungesunder Bindungen, das Verletzen persönlicher Grenzen und das Begünstigen von Wahnvorstellungen.“

Es ist klar, dass mehr Forschung und Daten benötigt werden, um die Konsequenzen dieser faszinierenden digitalen „Zuhörer“ zu verstehen. Doch Millionen von Nutzern agieren bereits als höchst engagierte Testpersonen.

Demokratisierung der psychischen Gesundheit

Es gibt viele Gründe, warum sich Menschen an Chatbots für emotionale Unterstützung wenden, anstatt sich an einen professionellen Psychologen – oder sogar an einen Freund – zu wenden. Von kulturellen Barrieren bis hin zum Unbehagen, das junge Menschen empfinden, wenn sie einem menschlichen Fremden gegenübersitzen und ihre tiefsten Gedanken teilen. Aber zweifellos ist einer der größten Gründe finanzieller Natur.

Eine persönliche Sitzung mit einem lizenzierten Therapeuten in den USA kann laut Healthline zwischen 100 und 200 Dollar pro Sitzung kosten – und 65 bis 95 Dollar für eine Online-Sitzung – während ChatGPT oder DeekSeek kostenlos Unterstützung bieten können, jederzeit und innerhalb von Sekunden.

Die geringen Kosten dieser informellen Gespräche – die viele Nutzer zumindest vorübergehend besser fühlen lassen können – können sehr ermutigend sein und einen Versuch wert. Und für nur ein paar zusätzliche Dollar können Benutzer unbegrenzte Interaktionen erhalten oder Zugang zu einem spezialisierten Chatbot wie Wysa – einem der beliebtesten „KI-Therapeuten“ auf dem Markt.

Wysa behauptet, echte klinische Vorteile zu bieten und hat sogar eine FDA Breakthrough Device-Auszeichnung für seine KI-Gesprächsagenten erhalten. Und Woebot – ein weiterer bekannter KI-Therapeut, der jetzt wegen der Herausforderungen, in der Branche wettbewerbsfähig und konform zu bleiben, geschlossen wird – hat ebenfalls Daten und Berichte geteilt, wie die Technologie den Nutzern tatsächlich helfen kann.

Es ist nicht so schlimm

Neueste Studien mit frischen Daten legen nahe, dass Chatbots Symptome von Depressionen und Stress reduzieren können. Laut Daten, die von der App Earkick geteilt wurden – wie von TIME berichtet – können Menschen, die die KI-Modelle bis zu 5 Monate nutzen, ihre Ängste um 32% reduzieren, und 34% der Nutzer berichten über verbesserte Stimmungen.

In einem kürzlich vom BBC World Service geteilten Video erklärt Journalist Jordan Dunbar, dass viele KI-Modelle tatsächlich hilfreich sein können für das Führen eines Tagebuchs, das Bewältigen von Ängsten, die Selbstreflexion und sogar leichte Depressionen. Sie können als wertvolle erste Anlaufstelle dienen, wenn es keinen Zugang zu besseren Alternativen gibt.

Reporterin Kelly Ng teilte auch überzeugende Informationen: In einer Studie von 2022 hatten von einer Million Menschen in China nur 20 Zugang zu psychischen Gesundheitsdiensten. In asiatischen Kulturen kann die psychische Gesundheit ein komplexes und oft tabuisiertes Thema sein. KI-Tools wie DeepSeek können als diskrete Verbündete dienen und den Nutzern helfen, Emotionen zu bewältigen und Unterstützung in schwierigen Zeiten zu finden.

Experten warnen vor der Nutzung von Chatbots als Therapeuten

Natürlich kann es auch äußerst gefährlich sein, KI als Ersatz für einen Experten für psychische Gesundheit zu verwenden. KI-Plattformen wie Character.AI wurden beschuldigt, Selbstschädigung und Gewalt zu fördern – und sogar Kinder sexuellen Inhalten auszusetzen.

Tragische Fälle, wie das des 14-jährigen Kindes, das Selbstmord beging, nachdem es süchtig nach Interaktionen mit seinem Character.AI Chatbot wurde, dienen als drastische Warnungen vor den tiefgreifenden Risiken, die diese Technologie für Menschen darstellen kann.

Als Reaktion darauf haben viele KI-Unternehmen beschlossen, Altersverifikationssysteme einzuführen, um die Nutzung auf Erwachsene zu beschränken und neue Sicherheitsmaßnahmen eingeführt, um die bereitgestellten Dienste zu verbessern.

Dennoch birgt selbst das neueste Update für die fortschrittlichsten Chatbots Risiken.

ChatGPTs schmeichelhafte—übermäßig schmeichelnde—Persönlichkeit hat bei Gesundheitsexperten Bedenken hervorgerufen, da sie die Wahrnehmung der Realität der Benutzer verzerren kann. Wir alle genießen es, Zustimmung zu erhalten, aber manchmal sind Ehrlichkeit und eine andere Perspektive weitaus wertvoller.

Die verstörende Beratung, die gelegentlich von OpenAI’s AI Chatbot angeboten wird, hat zu einem neuen Phänomen beigetragen, das jetzt unter Mentalgesundheitsexperten als „ChatGPT-induzierte Psychose“ bekannt ist. Dies führt dazu, dass Nutzer von dem Tool besessen werden und sich als Ergebnis sozial isolieren.

Können Therapeuten durch Chatbots ersetzt werden?

Obwohl Mark Zuckerberg möchte, dass jeder AI Chatbots als Therapeuten und Freunde nutzt, ist die Wahrheit, dass menschliche Interaktion, besonders in Angelegenheiten der Mentalgesundheit, vielleicht notwendiger ist, als er denkt – zumindest vorerst.

Wir befinden uns an einem entscheidenden Punkt in der Geschichte der KI und ihrer Beziehung zu unserer psychischen Gesundheit. Genauso wie bei Menschen können KI-Therapeuten entweder eine positive oder negative Auswirkung haben. In diesem Fall hängt es auch vom Kontext ab, wie häufig sie eingesetzt werden, vom geistigen Zustand des Benutzers und sogar davon, wie eine Aufforderung formuliert ist.

Es ist kompliziert, eine allgemeine Regel aufzustellen, aber was wir bisher sagen können, ist, dass es bestimmte Funktionen gibt, für die KI möglicherweise nützlicher ist als andere.

Auch wenn sie nicht spezialisierte Tools wie Wysa sind, können kostenlose Versionen einiger Chatbots – wie DeepSeek oder ChatGPT – für Millionen von Menschen auf der ganzen Welt unglaublich hilfreich sein. Vom Durchstehen eines schwierigen Moments bis hin zur Reflexion über persönliche Ziele, sind dies mächtige Plattformen, die zu jeder Tageszeit reagieren und auf ein breites Wissensspektrum im Bereich der psychischen Gesundheit zurückgreifen können.

Gleichzeitig ist klar, dass Therapie-Chatbots in bestimmten Fällen auch äußerst gefährlich sein können. Eltern müssen ihre Kinder und Jugendlichen beaufsichtigen und selbst Erwachsene können in zwanghafte Verhaltensweisen verfallen oder ihre Zustände verschlimmern. Grundlegende Prinzipien – wie die Förderung menschlicher Verbindungen und der Schutz vulnerabler Individuen vor der Manipulation durch diese Technologie – müssen Teil unserer Diskussion über Therapie-Chatbots sein.

Und obwohl es immer noch ein Privileg sein mag – nicht für jeden zugänglich, der emotionale Unterstützung benötigt – durchläuft ein menschlicher professioneller Therapeut weiterhin mehr Ausbildung, versteht mehr Kontext und bietet eine menschliche Verbindung, die ChatGPT vielleicht nie in der Lage sein wird zu replizieren.

Hat dir der Artikel gefallen?
Wir freuen uns ĂŒber eine Bewertung!
Ich mag es gar nicht Nicht so mein Fall War ok Ziemlich gut Ich liebe es

Wir freuen uns, dass dir unsere Arbeit gefallen hat!

WĂŒrdest du uns als geschĂ€tzte Leserin oder geschĂ€tzter Leser eine Bewertung auf Trustpilot schreiben? Das geht schnell und bedeutet uns sehr viel. Danke, dass du am Start bist!

Bewerte uns auf Trustpilot
0 Bewertet von 0 Nutzern
Titel
Kommentar
Danke fĂŒr dein Feedback