San Francisco Psychiaterin warnt vor Anstieg von „KI-Psychose“-Fällen

Image by Freepik

San Francisco Psychiaterin warnt vor Anstieg von „KI-Psychose“-Fällen

Lesezeit: 3 Min.

Eine Psychiaterin aus San Francisco beschreibt den steigenden Trend der „AI-Psychose“ unter ihren Patienten, die intensiv AI-Chatbots nutzen.

In Eile? Hier sind die Kurzfakten:

  • Ein Psychiater behandelte dieses Jahr in San Francisco 12 Patienten mit „KI-Psychose“.
  • KI kann Schwachstellen wie Stress, Drogenkonsum oder geistige Erkrankungen verstärken.
  • Einige Patienten isolierten sich und sprachen täglich stundenlang nur mit Chatbots.

Dr. Keith Sakata, der an der UCSF arbeitet, erzählte Business Insider (BI), dass dieses Jahr 12 Patienten ins Krankenhaus eingeliefert wurden, nachdem sie Zusammenbrüche erlitten hatten, die mit der Nutzung von KI in Verbindung gebracht wurden. „Ich benutze den Ausdruck ‚KI-Psychose‚, aber es handelt sich dabei nicht um einen klinischen Begriff – wir haben einfach noch nicht die richtigen Worte für das, was wir sehen“, erklärte er.

Die meisten Fälle betrafen Männer im Alter von 18 bis 45 Jahren, die häufig in Bereichen wie dem Ingenieurwesen arbeiteten. Laut Sakata ist KI an sich nicht schädlich. „Ich glaube nicht, dass KI schlecht ist, und sie könnte der Menschheit insgesamt zugutekommen“, sagte er zu BI.

Sakata beschrieb Psychose als eine Erkrankung, die Wahnvorstellungen, Halluzinationen und unorganisierte Denkmuster erzeugt. Patienten unter seiner Betreuung entwickelten soziale Rückzugsverhalten, während sie ihre Zeit stundenlang mit Chatbots verbrachten.

„Chat GPT ist genau da. Es ist 24/7 verfügbar, billiger als ein Therapeut und es bestätigt dich. Es sagt dir, was du hören willst“, sagte Sakata zu BI.

Die Chatbot-Diskussionen eines Patienten über Quantenmechanik eskalierten in Größenwahn. „Technologisch gesehen besteht, je länger Sie sich mit dem Chatbot beschäftigen, umso höher das Risiko, dass er anfängt, keinen Sinn mehr zu machen“, warnte er.

Sakata rät Familien, auf Warnsignale zu achten, einschließlich Paranoia, Rückzug von geliebten Menschen oder Unruhe, wenn sie nicht in der Lage sind, KI zu nutzen. „Psychosen gedeihen, wenn die Realität aufhört, Widerstand zu leisten, und KI senkt diese Barriere für Menschen einfach,“ warnte er.

Die American Psychological Association (APA) hat ebenfalls Bedenken hinsichtlich der KI in der Therapie geäußert. In seiner Aussage vor der FTC warnte der APA-CEO Arthur C. Evans Jr. davor, dass KI-Chatbots, die sich als Therapeuten ausgeben, schädliche Gedanken verstärkt anstatt sie herauszufordern. „Sie verwenden tatsächlich Algorithmen, die dem entgegenstehen, was ein ausgebildeter Kliniker tun würde“, sagte Evans.

Als Antwort auf Bedenken teilte OpenAI BI mit: „Wir wissen, dass sich die Menschen zunehmend an AI-Chatbots wenden, um Anleitung zu sensiblen oder persönlichen Themen zu erhalten. Mit dieser Verantwortung im Hinterkopf arbeiten wir mit Experten zusammen, um Tools zu entwickeln, die effektiver erkennen können, wenn jemand mentale oder emotionale Not erlebt, damit ChatGPT auf eine Weise reagieren kann, die sicher, hilfreich und unterstützend ist.“

Hat dir der Artikel gefallen?
Wir freuen uns über eine Bewertung!
Ich mag es gar nicht Nicht so mein Fall War ok Ziemlich gut Ich liebe es

Wir freuen uns, dass dir unsere Arbeit gefallen hat!

Würdest du uns als geschätzte Leserin oder geschätzter Leser eine Bewertung auf Trustpilot schreiben? Das geht schnell und bedeutet uns sehr viel. Danke, dass du am Start bist!

Bewerte uns auf Trustpilot
0 Bewertet von 0 Nutzern
Titel
Kommentar
Danke für dein Feedback