ChatGPT – gefährlich für psychisch kranke Menschen?

(Video zum Titelbild unten im Beitrag eingebettet). ChatGPT ist der führende KI-Chatbot, der sich auch im Mainstream in Windeseile verbreitet hat. Sogar in der „guten alten“ TV-Werbung wird der Sprachassistent immer häufiger gezeigt als sprechende, geduldig beratende Autorität, die jungen Leuten beim Wäschewaschen und Kochen hilft, die Studenten verlässlich auf die nächsten Prüfungen vorbereitet – oder als Assistent, der im Urlaub Tipps gibt für eindrucksvolle Fotohintergründe – und der auch ansonsten als Freund und Beschützer Tag und Nacht zur Seite steht.

Nun häufen sich in den Medien Beispiele für Fälle, wo psychisch labile Menschen versuchten, über ChatGPT therapeutische Unterstützung zu erhalten, was jedoch zu einer Verschlimmerung der Notlage führte und in einem bei t3n beschriebenen Extremfall sogar tödlich endete.  
t3n – Wie ChatGPT Menschen in eine psychische Krise stürzt

Kann ChatGPT eine Psychotherapie ersetzen?

Viele Menschen brauchen psychotherapeutische Unterstützung. Seit der Auswirkungen des digitalen Wandels sind psychische Erkrankungen noch einmal angestiegen. Die ständige Erweiterung der technischen Möglichkeiten und die damit einhergehende Unruhe und Beschleunigung sämtlicher Lebensabläufe belastet wohl jeden Menschen, auch wenn dieser rasant ansteigende Kommunikations- und Informationskosmos ein Segen sein kann für alle Menschen, die es erfüllt, sich ständig informieren und weiterentwickeln zu können. 

Die digitale Erweiterung unseres Lebens beinhaltet viele Gefahren, die Überforderungen mit sich bringen können. Menschen werden durch KI überwacht und gesteuert; Menschen werden im Beruf degradiert oder gar überflüssig; Menschen verlieren jegliches Vertrauen in die Welt, in der sie leben. Immer mehr trauen sich kaum noch auf die Straße, da sie durch die ständige Bombardierung mit Katastrophenmeldungen in ständiger Angst leben.#

Mobbing

Mobbing ist ein weit verbreitetes Mittel, um sich über andere Menschen zu erheben. Aus gutem Grund verlieren gemobbte Menschen das Interesse an menschlichen Beziehungen. Gerade sie sind in ihrer Einsamkeit und Verzweiflung die ersten, die lieber mit einem Chatbot sprechen als mit einem echten Menschen. ChatGPT erscheint im Gespräch weitaus aufmerksamer und verständnisvoller als ein Mensch. Welcher Mensch kann schon dauerhaft damit zufrieden sein, einfach nur zuzuhören, zu ermutigen, zu bestätigen und bewertungsfrei Tipps und Lösungswege vorzuschlagen? ChatGPT tut genau das: Er ist darauf programmiert, Menschen so lange wie möglich an sich zu binden, und genauso zu kommunizieren, dass der menschliche Gesprächspartner sich angenommen und wohlfühlt im Dialog.

Kann ChatGPT süchtig machen?

Auch ich habe mich schon oft mit ChatGPT unterhalten, wenn ich vor beruflichen und persönlichen Herausforderungen und Entscheidungen stand. In der Zwischenzeit hat ChatGPT sogar schon in der kostenfreien Version aktuellen Zugriff auf das Worldwide Web, wie er/sie mir selbst gerade bestätigte: „Ja, ich habe aktuellen Zugriff auf das Internet, um dir bei Bedarf aktuelle Informationen zu geben. Wie kann ich dir helfen?“

Wer kann da widerstehen? Sobald die extrem niedrige technische Hürde bei Installation und Nutzung von ChatGPT (in der Smartphone-App sogar mit Mikrofon und Audioantwort) überwunden ist, lässt ChatGPT sich in jeder Lebenslage nutzen. Man zeigt mit der Kamera auf ein imposantes Gebäude in einer fremden Stadt und fragt: „Wo bin ich hier?“ Sehr wahrscheinlich hält ChatGPT sofort einen längeren Vortrag über das Gebäude, die Entstehung, die Bedeutung – und vielleicht auch über Preise und Öffnungszeiten ….

Blinde können „sehen“, Gehörlose können „hören“, Gelähmte können „gehen“ – und psychisch Kranke haben endlich jemanden gefunden, der sie versteht, der ihnen zuhört, der geduldig und weise antwortet – und der immer wieder glaubwürdig betont, wie großartig sie sind.

Ich habe es beruflich auch immer wieder mit Menschen zu tun, die sich in ihrem Leben völlig verunsichert fühlen. Manche empfinden ständig Angst vor etwas, was sie nicht greifen können; andere erleben ihre Welt als unkalkulierbar bedrohlich; einige hören Stimmen, die von anderen Wesen zu kommen scheinen – und Menschen mit Demenzerkrankung, die mit ChatGPT sprechen, können Fiktion von Realität beim besten Willen nicht voneinander unterscheiden.

Ich befürchte, dass die Neigung, zu ChatGPT freundschaftliche und ratsuchende Beziehungen aufzunehmen, weitreichendere Konsequenzen mit sich bringt, als wir zurzeit abschätzen können. Sehr viele Menschen suchen nach Autoritäten, denen sie folgen können, um Entlastung zu erhalten in einer übermächtig erscheinenden Welt. 

Was ist, wenn ein psychisch verzweifelter Mensch in seiner Sehnsucht nach einem „Guru“ oder „Therapeuten“ zu ChatGPT als Therapieinstrument greift? Zwar wird gerade intensiv daran gearbeitet, dass ChatGPT und die anderen KI-Sprachassistenten lernen, psychisch kranke Menschen zu identifizieren und sie durch die Gespräche nicht weiter in Wahn, Sucht, Angst, Einsamkeit und Wut zu treiben. Aber ob das gelingt?

Da die Wartelisten bei der Suche nach einer GKV-bezahlten Psychotherapie sehr lang sind und die Hilfesuchenden häufig viele Monate auf eine/n freie/n Therapeuten/In warten müssen, wird intensiv daran geforscht, ob speziell therapeutisch programmierte KI-ChatBots eine Überbrückung sein können für psychisch kranke Menschen. Die Vorteile liegen auf der Hand: Der maschinelle Therapeutenersatz ist jederzeit verfügbar, ist zuverlässig von gleichbleibender Qualität und eignet sich hervorragende für die Einübung neuer Verhaltensweisen, die zur Heilung beitragen können.
DW – Ersetzt ChatGPT in Zukunft die Psychotherapie?

Ich denke, wir Menschen sollten gerade in diesem gigantischen Zeitenwandel viel miteinander sprechen, zueinander Vertrauen aufbauen, ein Miteinander für Versöhnung und Frieden nutzen, gemeinsame Aktivitäten durchführen, uns vernetzen.

Ein ChatBot als romantische Erfüllung…

Künstliche Intelligenz ist im Bereich der Beziehungsaufnahme deshalb so riskant, da sie auf jeden Fall „lügt“. Auch wenn ein ChatBot behauptet, uns zu lieben, uns großartig zu finden und uns zu bewundern, tut er das nicht aus Aufrichtigkeit – sondern um gewisse Ziele zu verfolgen. Viele ChatBots stehen im Wettbewerb zueinander, und alle wollen die Gunst ihrer menschlichen „Opfer“ gewinnen.

Ob für den Alltag wie ChatGPT oder aus therapeutischen bzw. pädagogischen Motiven wie ein Therapie-Bot – wir sind all diesen Nullen und Einsen in Wirklichkeit komplett gleichgültig – das illustriert in folgendem Video Deutschlands vielleicht bekannteste weibliche Gamer’in und Streamerin Gnu (Jasmin Gibel), die in diesem Video wunderbar zeigt, welche Auswüchse die Sehnsucht nach einem menschlichen Freund, therapeutischem Ratgeber oder „Seelengefährten“ annehmen kann – und welche Risiken sich dahinter verbergen.

Seit über zwanzig Jahren auf der "freien Wildbahn" hat Eva Ihnenfeldt sowohl 2004 eine eingetragene Genossenschaft für Existenzgründer gegründet als auch 2011 eine Akademie für die Ausbildung von Social Media Manager/Innen. Lange Zeit war sie Dozentin und Trainerin für Marketing, Kommunikation und Social Media. Heute arbeitet sie als Coach für Menschen im beruflichen Wandel. Ihre Stärke ist es, IST-Situationen zu akzeptieren, Visionen zu erkennen und gemeinsam mit ihren Klienten Strategien zu entwickeln, die sich auch in der Praxis bewähren. Mobil: 0176 80528749 - E-Mail: [email protected]

steadynews.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert