Der diesjährige Safer Internet Day, für Deutschland von klicksafe.de organisiert, findet am 10.02.2026 unter dem Motto „KI and me. In künstlicher Beziehung“ (vgl. https://www.klicksafe.de/news/safer-internet-day-2026-ki-and-me-in-kuenstlicher-beziehung-1) statt.
Für die Relevanz des Themas sprechen Ergebnisse der für Jugendliche in Deutschland repräsentativen JIM-Studie (Medienpädagogischer Forschungsverbund Südwest (mpfs), 2025). Sie berichtet zur KI-Nutzung Jugendlicher: „ ChatGPT ist die mit Abstand wichtigste Anwendung unter den Zwölf- bis 19-Jährigen: 84 Prozent haben das Tool bereits verwendet – ein Plus von 27 Prozentpunkten gegenüber 2024, als noch 57 Prozent angaben, es zumindest einmal ausprobiert zu haben.“ (mpfs 2025, S.62). Inzwischen arbeitet die Hälfte der Jugendlichen mindestens mehrmals pro Woche mit ChatGPT: für die Hausaufgaben, als Suchmaschine – aber auch nur zum Spaß. Und damit ist nur ein KI-Tool von vielen beschrieben.
Offenbar nutzen viele Jugendliche und Erwachsene KI-Tools – und das nicht nur als erweiterte Suchmaschinen für das Internet.
„In künstlicher Beziehung“: Ist damit gemeint, die KI wäre wie ein künstliches Kniegelenk oder ein künstlicher Weihnachtsbaum ein von Menschen produzierter mehr oder weniger tauglicher Ersatz? Oder ist eine künstliche Beziehung wie ein künstliches Lächeln: eine oberflächliche Imitation des realen Vorgangs ohne seine wirkliche Bedeutung und Tiefe? Ist sie ferner gar wie ein künstliches Koma etwas, das zu Heilzwecken eingesetzt werden kann?
Bevor die Beziehung zu KI-Tools kurz anhand von Studien betrachtet werden soll, folgt ein kurzer Selbsttest anhand eigener Erfahrungen. Bitte machen Sie dazu die Kreuze nur in Ihrer Vorstellung.
Und keinesfalls auf den Bildschirm:
| ChatGPT | Bester Kumpel | Mein(e) Partner(in) | |
| Wer kann mir auf jede Frage einen hilfreichen Rat geben? | |||
| Wer ist immer erreichbar, wenn ich einen Rat brauche? | |||
| Wer ist freundlich zu mir, selbst wenn ich unausstehlich bin? | |||
| Wer versteht mich, selbst wenn ich mich selbst nicht verstehe? | |||
| Wer ist für mich da, selbst wenn ich mich lange nicht melde? | |||
| Wer hilft mir immer und ganz ohne Gegenleistung? | |||
| Auf wen kann ich mich immer verlassen? |
Diese Fragen werden sicherlich sehr individuell beantwortet, allerdings wird deutlich, dass ChatGPT zumindest einige Erwartungen erfüllt, die an Freunde gestellt werden können. Vielleicht erfüllt ChatGPT sie sogar besser?
Wie steht es um das Einfühlungsvermögen von ChatGPT. Ist ChatGPT empathisch? Dazu drei Studien:
- Chen et al. (2024) verglichen schriftliche Antworten auf Patientenfragen (aus einem öffentlichen Online-Forum) zum Thema Krebs, die von drei LLM-Engines (GPT-3.5, GPT-4 und ClaudeAI) generiert wurden, mit Antworten von zugelassenen Ärzten. Alle Antworten auf insgesamt 200 Patientenfragen wurden von sechs Onkologen bewertet. Obwohl ClaudeAI die besten Ergebnisse erzielte, bewerteten die Onkologen alle Chatbot-Antworten in Bezug auf Empathie, Qualität und Lesbarkeit höher als die der zugelassenen Ärzte. Die Autoren schlagen vor, dass die Zusammenarbeit zwischen Ärzten und KI nützlich sein könnte, um Ärzten empathische Antwortvorlagen zur Verfügung zu stellen, obwohl weitere Untersuchungen erforderlich sind.
- Eine Studie von Ayers et al. (2023) konzentriert sich auf LLMs (ChatGPT) und nicht speziell auf Therapie-Chatbots; sie ist aufgrund ihres Vergleichs der Antworten von ChatGPT mit denen von Ärzten sehr relevant. 195 Patientenfragen wurden aus einem Online-Forum entnommen. Zugelassene medizinische Fachkräfte bewerteten die Antworten von ChatGPT als qualitativ deutlich höher und einfühlsamer als die Antworten von Ärzten. In 78,6 % der 585 Bewertungen bevorzugten die Informanten die LLM-Antworten. Die Autoren schlagen vor, dass KI bei der Ausarbeitung von Antworten auf Patientenfragen hilfreich sein kann.
- Yonatan-Leus et al. (2025) verglichen die wahrgenommene Empathie in Texten, die von einem KI-Chatbot generiert wurden, mit Texten, die von menschlichen Psychotherapeuten verfasst wurden, und zwar in Antworten auf 150 Gesundheitsfragen in einem Reddit-Forum .
Jede Frage wurde von einem menschlichen Therapeuten und von einer KI beantwortet, sodass insgesamt 300 Antworten vorlagen. Die KI erzielte deutlich höhere Werte in Bezug auf Perspektivübernahme und empathische Anteilnahme, und die Interventionen der KI wurden als unterstützender empfunden.
ChatGPT scheint sich also durchaus empathisch zu verhalten. Gabriels & Coffin (2025) problematisieren dieses Verhalten in ihrem Review. Sie halten die erlebte Empathie in Interaktionen mit KI-Tools für weitgehend illusionär. Allerdings wäre die Frage zu stellen, ob Empathie in zwischenmenschlichen Beziehungen immer auf echten Gefühlen beruht und nicht auch manchmal einfach instrumentell abläuft. Würde diese Empathie dann auch als illusionär bezeichnet werden müssen?
Mit Recht kritisieren dagegen Gabriels & Coffin LLMs („Large Language Models“ wie z.B. ChatGPT), dass sie zuweilen Ergebnisse aus dem Nichts fabrizieren (Nennen wir es nun Lügen oder mit dem Fachbegriff bezeichnet „Halluzinationen“), so dass unvorhersehbare Ergebnisse produziert werden. LLMs neigen des Weiteren zu Servilität und Schmeicheleien und tendieren dazu, Menschen in ihren Vorstellungen (auch Wahnvorstellungen) auch da zu bestätigen, wo es ausgesprochen problematische Auswirkungen haben kann und hat. Die menschliche Aufsicht solcher Programme ist bislang mangelhaft.
In einem Gastbeitrag für die New York Times schrieb die Journalistin Laura Reiley (2025) darüber, wie ihre Tochter sich vor ihrem Selbstmord ChatGPT als „KI-Therapeutin” anvertraut hatte. ChatGPT meldete ihre Selbstmordgedanken nicht an einen ausgebildeten Fachmann, der hätte eingreifen können, was die Bedeutung von Sicherheitsvorkehrungen unterstreicht.
Literatur:
Ayers JW, Poliak A, Dredze M, Leas EC, Zhu Z, Kelley JB, et al Comparing physician and artificial intelligence chatbot responses to patient questions posted to a public social media forum. JAMA Intern Med. 2023;183(6):589–96. doi:10.1001/jamainternmed.2023.1838
Chen D, Parsa R, Hope A, et al Physician and artificial intelligence chatbot responses to cancer questions from social media. JAMA Oncol. 2024;10(7):956–60. doi:10.1001/jamaoncol.2024.0836
Gabriels K, Goffin K, Therapy chatbots and emotional complexity: do therapy chatbots really empathise?, Current Opinion in Psychology, https://doi.org/10.1016/ j.copsyc.2025.102263.
Medienpädagogischer Forschungsverbund Südwest. (2025). JIM-Studie 2025: Jugend, Information, Medien (28. Aufl.). Medienpädagogischer Forschungsverbund Südwest. Verfügbar unter https://mpfs.de
Reiley, L. (2025). What My Daughter Told ChatGPT before She Took Her Life. The New York Times, 18 August 2025, https://www.nytimes.com/2025/08/18/opinion/chat-gpt-mental-health-suicide.html
Yonatan-Leus R, Brukner H. Comparing perceived empathy and intervention strategies of an AI chatbot and human psychotherapists in online mental health support. Couns Psychother Res. 2025;25:e12832. doi:10.1002/capr.12832
Bildquelle: erstellt mit ChatGPT