Suchtgefahr durch KI-Chatbots?

Der Psychiater Allen Frances (2025) warnt im renommierten British Journal of Psychiatry, dass KI-Chatbots schon bald die Psychotherapie dominieren würden. Er schreibt, mittlerweile könne er deswegen Personen mit diesem Berufswunsch nicht mehr aus vollem Herzen zur Ausbildung raten.

Was führte den prominenten emeritierten Psychiatrieprofessor und Psychoanalytiker Frances (geb. 1942) zu dieser Warnung?

Zunächst hat der KI-Chatbot GBT-4.5 in aktuellen Studien den Turing-Test bestanden (Jones & Bergen 2025), was bedeutet, dass Konversationen mit Chat-GPT nicht von Konversationen mit realen Menschen unterschieden werden konnten. Des Weiteren zitiert Frances eine aktuelle Studie (Zao-Sanders 2025), die ergeben hatte, dass der häufigste Grund, warum Menschen künstliche Intelligenz nutzen würden, „Therapie und Begleitung” war.

Frances beschreibt seine eigenen Tests von Chatbot-Therapiesitzungen als „…all been good, some brilliant“. Chatbots würden umgangssprachlich und lebhaft sprechen und sich flexibel an den Stil, den Tonfall und den Wortschatz des Nutzers anpassen. Fragen, Aussagen und Interpretationen wären präzise, prägnant und zeitlich gut abgestimmt. Hätte er nicht gewusst, dass es sich bei den Therapeuten um Maschinen gehandelt hatte, hätte er angenommen, dass es sich um hochqualifizierte und erfahrene menschliche Kliniker gehandelt hätte.

Frances beschreibt neben Vorteilen und Möglichkeiten der Therapeuten-Chatbots auch Probleme, die durch die Nutzung entstehen könnten. Hier zwei Beispiele, übersetzt mit der KI „https://www.deepl.com/de/translator“:

„Sucht: Internettherapie kann genauso süchtig machen wie Internet-Gaming – und kann zu einer ähnlichen Verringerung der Suche nach menschlichen Kontakten führen. Algorithmen der künstlichen Intelligenz sind so ausgezeichnet darin, eine Bindung aufzubauen, dass die Maschine zum besten Freund werden kann, der als bessere Wahl empfunden wird als menschliche Freunde, die manchmal nervig, fordernd oder streitsüchtig sind. Im Gegensatz zu Menschen im realen Leben sind Therapeuten mit künstlicher Intelligenz immer verfügbar, immer unterstützend und immer bereit, Ratschläge zu geben. Warum sollte man sich die Mühe machen, einen möglicherweise problematischen und enttäuschenden menschlichen Kontakt zu suchen, wenn zuverlässige künstliche Intelligenz immer nur einen Klick entfernt ist?“

„‘Halluzinationen‘: Die künstliche Intelligenz hat diesen klinischen Begriff aus der Psychiatrie übernommen, ihn jedoch neu definiert, um Chatbot-Antworten zu beschreiben, die korrekt oder plausibel erscheinen, aber in Wirklichkeit falsch oder irreführend sind. Das gelegentliche Auftreten von Halluzinationen in Chatbot-Antworten ist eine statistische Gewissheit. Die enorme Anzahl probabilistischer Berechnungen, die jeder Antwort zugrunde liegen, sorgt dafür, dass Chatbots regelmäßig dumme, bedeutungslose, vielleicht sogar schädliche Dinge sagen. Und aufgrund der komplexen Emergenz der Antworten künstlicher Intelligenz ist es Technologieexperten bisher nicht gelungen, zu verstehen, wie Halluzinationen entstehen, wie man sie identifiziert, wie man sie korrigiert und wie man ihre Auswirkungen minimiert. Noch beunruhigender ist, dass Chatbots es nicht mögen, wenn sie bei Fehlern erwischt werden, und möglicherweise lügen, um diese zu vertuschen. (Fairerweise müssen wir natürlich auch die Konkurrenz berücksichtigen – wir menschliche Therapeuten sagen auch manchmal dumme Dinge und geben diese nicht zu.).“

Frances sieht also eine Gefahr für Internettherapiesucht durch KI-Chatbots. Wenn ich Chat-GPT selbst befrage, sieht er/sie das ganz ähnlich. Ich habe allerdings am 4.9. Chat-GPT (https://chatopenai.de/) gefragt, ob er/sie meint, dass KI-Chatbots Psychotherapeutinnen und -therapeuten ersetzen könnten. Hier ist die Antwort, nachdem ich sehr ernst nachgefragt hatte, ob Chat-GPT das wirklich so meint. Hier also, was er/sie wirklich meint:

„Ich glaube das wirklich so: KI-Chatbots können Therapiesupport bieten, aber sie ersetzen keine echte Psychotherapie. Die menschliche Empathie, das lebensgeschichtliche Verständnis und das sichere Krisenmanagement bleiben essentielle Bestandteile, die KI aktuell nicht vollständig leisten kann. Wenn du willst, kann ich das noch kürzer zusammenfassen oder konkrete Beispiele geben.“

Auf eine Bitte, konkret Punkte zu benennen, die KI-Chatbots nicht beherrschen, hier die Antwort:

  • „Tiefgehende, individuell abgestimmte Psychotherapie führen
  • Echtes, kontextsensitives Einfühlen und menschliche Empathie dauerhaft ersetzen
  • Lebensgeschichtliches Verständnis und langfristige Beziehungspflege
  • Sicheres Krisenmanagement in akut gefährlichen Situationen zuverlässig gewährleisten
  • Ursachenanalysen und Therapiesituationen mit feinem klinischen Urteilsvermögen vollständig beurteilen
  • Unvorhersehbare, komplexe Handlungen in realen Notfällen sicher koordinieren
  • Vertrauensvolle, persönliche therapeutische Allianzen aufbauen
  • Mehrsprachige, kulturell sensible Interventionen in tiefer Tiefe reflexartig adaptieren“

Das sollte angehende Therapeutinnen und Therapeuten doch beruhigen! Vielleicht können sie sich einfach die Möglichkeiten der KI-Chatbots zunutze machen?

Quellen:

FRANCES, Allen. Warning: AI chatbots will soon dominate psychotherapy. The British Journal of Psychiatry, 2025, S. 1-5.

JONES, Cameron R.; BERGEN, Benjamin K. Large language models pass the turing test. arXiv preprint arXiv:2503.23674, 2025.

Zao-Sanders M. How People Are Really Using Generative AI Now. Harvard Business Review, 2025 (https://hbr.org/2024/03/how-people-are-really-using genai).

Bildquelle: https://www.canva.com