KI Chatbots als Paartherapie

Qualitative Einblicke in subjektive Bewertungen von Nutzungserleben und erlebte Wirkweisen des Paartherapie-Chatbots Eric AI1

Madita Hardiek

Beratung aktuell, 26(2), 2025, 49–64

https://doi.org/10.30820/1437-3181-2025-2-49

beratung-aktuell.de | besserlieben.de/beratung-aktuell

CC BY-NC-ND 4.0

Abstract: Die vorliegende qualitative Studie untersucht die Wirksamkeit von personifizierten KI-Therapie-Tools am Beispiel des Chatbots Eric AI, entwickelt von Eric Hegmann und angelehnt an seine Methodik und Stil. Vor dem Hintergrund wachsender Akzeptanz technologischer Innovationen und bestehender Barrieren beim Zugang paartherapeutischer Angebote wurde das Nutzungserleben von Eric AI 4.0 entlang von sechs Interviews aus Nutzerinnenperspektive untersucht.

Die explorativen Ergebnisse zeigen, dass Eric AI insgesamt als empathisch, wertschätzend, wirksam und unterstützend wahrgenommen wird. Trotz des Bewusstseins über die Künstlichkeit beschreiben Nutzerinnen das Gefühl einer »echten«, quasi menschlichen, Interaktion und einer therapeutischen Allianz, wenn auch in abgeschwächter Form im Vergleich zu face-to-face Settings. Der Chatbot wird insbesondere in akuten Konfliktsituationen und zur Selbstreflexion als hilfreich erlebt.

Insgesamt verdeutlichen die Befunde das Potenzial KI-basierter Systeme und Potenziale auf Faktoren wie das Empathieerleben, Wirkweisen (effektive Deeskalation) und Beleuchten Spezifika von Personalisierung von KI Therapie Bots, z. B. in Bezug auf therapeutische Allianz.

Keywords: Paartherapie, Chatbot, Therapie-Bots, künstliche Intelligenz, Evaluation, personifizierte KI

Brauchen wir in unserer Beziehung Hilfe?

Konflikte gehören für viele zum alltäglichen Beziehungsgeschehen. Menschen gehen jedoch unterschiedlich damit um: Manche sprechen sie offen an, andere weichen ihnen aus und unterdrücken offene Konflikte, wieder andere entziehen sich und beenden Beziehungen, statt Konflikte auszutragen. Oft hängt dies von biografischen Erfahrungen, sozialen Kontexten und Beziehungsdynamiken ab. Auch Bindungsstile spielen eine wichtige Rolle (Sarkar & G, 2024).

Mitunter wird bei Konflikten auch professionelle Begleitung angefragt. Erste Untersuchungen konnten dabei Hinweise für einen 6-Jahres-Verzögerungs-Effekt finden (Gottman, 1999), der beschreibt, dass Paare sich in der Regel sechs Jahre nach dem erstmaligen Auftreten von Beziehungsschwierigkeiten professionelle Unterstützung suchen, mitunter in der Annahme, dass es bereits zu spät sei (Doherty et al., 2021). Aktuelle Forschung modifiziert den Zeitraum und zeigt für heute einen durchschnittlichen Verzögerungszeitraum von 2,68 Jahren (Doherty et al., 2021). Zu den empirisch belegten Hindernissen, eine Paartherapie aufzusuchen, zählen finanzielle Aspekte, terminliche Schwierigkeiten sowie befürchtete Stigmatisierungen (Cicila et al., 2014; Shaffer et al., 2022). Eine Lösung dafür bietet das Internet, in dem diskret, niedrigschwellig und ohne Gefahr von Beschämung und Stigma auf Informationen zugegriffen werden kann (Georgia Salivar et al., 2020).

Die Zunahme gesellschaftlicher Offenheit für technologische Innovationen in diversen Lebensbereichen (Torous et al., 2021) erweist sich auch für die Paartherapie als relevant. Angesichts der vielversprechenden Ergebnisse, die Chatbots in der mentalen Gesundheitsintervention bereits erzielt haben, wie bspw. die Reduktion depressiver Symptome, sowie der allgemeinen Akzeptanz solch digitaler Angebote (Abd-Alrazaq et al., 2020; Boucher et al., 2021; Jabir, 2023), stellt sich aktuell die Frage, wie sie auch in der Paartherapie erfolgreich eingesetzt werden könnten.

Nach Wissensstand der Autoren ist Eric AI bis dato der einzige paartherapeutisch arbeitende Chatbot im deutschen Markt, der als künstliche Intelligenz mit der Expertise eines echten (menschlichen) Paartherapeuten trainiert wurde, also sowohl auf einer spezifischen Methode und Stil aufbaut, als auch an das Auftreten und die epistemische Autorität einer Figur geknüpft ist. Durch die Personifizierung hebt er sich von anonymen Therapie-Bots ab.

Stetige Weiterentwicklung künstlicher Intelligenzen – auch in der Therapie

Denkt man heute an künstliche Intelligenzen, wird vielen mit großer Sicherheit zunächst ChatGPT und vielleicht die eigene Nutzung in den Sinn kommen. Darüber hinaus haben sich Chatbots in vielerlei Services bereits etabliert, zum Beispiel im Kundenservice, aber auch im Bereich der mentalen Gesundheitsversorgung und es deutet sich ein Paradigmenwechsel im Sinne einer transhumanistischen (Mensch-Technik-Verknüpfung) Therapie an (Singh, 2023). Erste Studien deuten auf positive Wirkweisen hin, wie hohe Effizienz, persönliche Anpassung, sowie den Vorteil von bedarfsorientierter und unlimitierter Erreichbarkeit (Singh, 2023).

Betrachtet man die historische Entwicklung gilt das Thema KI weniger neu als es heute verhandelt wird. Bereits in den 1960er Jahren sind die ersten, jedoch vergleichsweise simplen, automatisierten Sprachmodelle entwickelt worden (Aviram, 2025). Das erste bekannte Modell heisst ELIZA und wurde von Weizenbaum (1966) entwickelt. Es handelt sich dabei um eine textbasierte Frage-Antwort-Software, die den Input der Nutzer*innen entsprechend der Kommunikationstechnik der Paraphrasierung fragend zurückgespiegelt (Shotwell, 1983).

Trotz der ursprünglichen Einfachheit dieser Entwicklungen zeigte sich ELIZA auch einige Zeit später noch als relevanter Grundstein neuerer Chatbots und anderer künstlicher Intelligenzen (Boucher et al., 2021). Speziell im letzten Jahrzehnt ist das Potenzial künstlicher Intelligenzen weiter gestiegen (Richards, 2024). Aktuell reicht ihr Aufgabenfeld von klinischer Dokumentation und Symptomüberwachung (Torous & Blease, 2024), bis hin zur Durchführung interaktiver Therapiesitzungen (Aviram, 2025). Mit der Fähigkeit Unterhaltungen zu simulieren und zu automatisieren (Kulkarni et al., 2019) ermöglichen Chatbots die Verbindung zwischen künstlicher Intelligenz und menschlicher Kommunikation. Im Bereich von Gesundheit und Therapie finden sich bereits spezifische Anbieter wie Woebot (Fiske et al., 2019) oder Tess. Diese Gesundheits-Apps basieren beispielsweise auf kognitiver Verhaltenstherapie und locken u. a. durch eine stetige Verfügbarkeit (Aviram, 2025), wobei das therapeutische Potential noch ungeklärt ist (Aviram, 2025).

Forschungen konnten diverse Argumente für die Nutzung solcher Technologien herausstellen. Therapeutisch konnten sich Chatbots nicht nur in der Behandlung von Depressionen oder Sucht als hilfreich erweisen (Aviram, 2025), auch innerhalb der Paartherapie konnten klinische Verbesserungen in den Bereichen Beziehungszufriedenheit, Kommunikationsfähigkeit und Konfliktverhalten erzielt werden (Vowels, 2024). Es erscheint daher wenig überraschend, dass Chatbots aus Expert*innensicht eine hilfreiche Ressource zur Unterstützung einer Therapie, zur Weiterbildung therapeutischer Fähigkeiten sowie zur Erreichung unterversorgter Zielgruppen darstellt (Aviram, 2025). Immer mehr Studien thematisieren den Einsatz künstlicher Intelligenzen, speziell Chatbots, im Rahmen positiver Ergebnisse innerhalb der (mentalen) Gesundheitsversorgung. Empirische Befunde weisen darauf hin, dass Nutzer*innen eine deutlich wahrgenommene Beziehung zu Chatbots entwickeln (Berger, 2016; Simpson & Reid, 2014) und ihnen menschliche Eigenschaften zusprechen (Beatty et al., 2022). Martinengo et al. (2022) fand bezüglich der wahrgenommenen Personifizierung Hinweise für ein erhöhtes Engagement der Nutzer*innen sowie eine langfristige Einhaltung etwaiger Interventionen.

Als Nachteil solcher Technologien konnte die Forschung Vorbehalte bezüglich der Datensicherheit sowie der simulierten Empathiefähigkeit KI gestützter Therapie-Chatbots herausstellen (Aviram, 2025). Gleichzeitig äußern sich Zweifel hinsichtlich Empathievermögen und Kommunikationsstil durch einen generalisierenden und verallgemeinernden Algorithmus (Gual-Montolio et al., 2022). Diese Herausforderung erweist sich besonders in der Paartherapie als signifikant, in der die therapeutische Allianz ein vielschichtiges Beziehungssystem mit teils hochkomplexen Dynamiken beeinflusst (D’Aniello & Fife, 2020; Degen, 2025).

In der Forschung bleibt das therapeutische Potenzial von Chatbots in mehreren grundlegenden Aspekten bislang unzureichend geklärt (Aviram, 2025). Insbesondere hinsichtlich der Auswirkungen auf die therapeutische Beziehung besteht weiterhin erheblicher Klärungsbedarf, wenngleich eine Modifikation dieser Beziehung durch den Einsatz von Chatbots als unvermeidbar anzusehen ist. Studienergebnisse konnten zeigen, dass Therapeut*innnen – trotz des erkannten Potenzials dieser Technologien – weiterhin Skepsis hinsichtlich der Fähigkeit zur Entwicklung einer therapeutischen Beziehung mit Chatbots hegen (Degen, 2025; Prescott & Hanley, 2023). Es bleibt fraglich, inwiefern ein Chatbot die nach Rogers definierten essentiellen Kriterien einer therapeutischen Beziehung wie Empathie, Verständnis, Akzeptanz sowie Kongruenz abbilden kann (Aviram, 2025). Nicht nur in der Individualtherapie, besonders in der Familien- und Paartherapie stellt ebendiese Allianz zwischen Therapeut*in und Klient*in einen zentralen Wirkfaktor dar (Flückiger et al., 2018; Friedlander et al., 2011). Es gilt hier zudem zu beachten, dass die Wahrnehmung dieser Verbindung stark von der Technologie und der individuellen Handhabungsfähigkeit der Nutzer*innen abhängig ist (Aviram & Nadan, 2023).

Aus dem bisherigen Erkenntnisstand ergibt sich für die vorliegende Untersuchung daher folgende Forschungsfrage: Wie bewerten Nutzerinnen die Wirksamkeit sowie die Wirkweisen von personifizierten Beratungs-KI? Die Forschungsfrage wird entlang der Eric AI als Casestudie beantwortet.

Gegenstand der Untersuchung

Die vorliegende Studie fundiert auf der Arbeit und Entwicklung des Chatbots Eric AI durch Eric Hegmann, einen renommierten Paarberater und -coach aus Hamburg. Er gilt als ein führender Experte in den Bereichen Partnerschaft, Liebe und Dating, führt seit knapp 20 Jahren eine Praxis und ist durch die Medien, eigene mit dem NDR produzierte Serien- und Podcastformate sowie diverse literarische Publikationen Teil des öffentlichen Diskurses. Seine Arbeit, die auf den Ansätzen der Emotionsfokussierten Paartherapie nach Johnson und Greenberg sowie der differenzierungs- und entwicklungsfokussierten Paartherapie nach Bader und Pearson basiert, zielt darauf ab, Beziehungsdynamiken zu analysieren und zu verändern. Grundlage der Technologie stellt die GPT-4-Version von Open AI dar, die auf eine eigene Datenbank zugreift. Gespeist mit mehr als 3000 seiner Fragen und Antworten aus Artikeln, Interviews u.ä., wurde die vierte Version Eric AI 4.0 im Juli 2025 für eine erste Testphase veröffentlicht. Material eigener Aussagen, Vorträge, Interviewantworten sowie Publikationen finden sich mit ebendiesem persönlichen Wortlaut in dem Chatbot wieder. Seit der erstmaligen Veröffentlichung 2023 konnten Weiterentwicklungen im Rahmen von integrierten Interventionen, einer übergeordneten steuernden künstlichen Intelligenz sowie unzähliger weiterer Inhalte realisiert werden.

Methodik

An der Studie nahmen sechs weibliche Nutzerinnen teil. Auswahlkriterium stellte eine zuvor mindestens einmalige Nutzung einer der älteren, weniger komplexen Versionen – 3.0 oder 3.1 – Eric AIs dar. Die Rekrutierung verlief 2025 über Instagram und einen Newsletter. Das Durchschnittsalter der Probandinnen betrug 41 Jahre. Zum Zeitpunkt der Untersuchung befanden sich alle Teilnehmenden in einer festen Beziehung.

Für die Datenerhebung wurden problemzentrierte Interviews (Witzel, 1982, 2000) durchgeführt. Die Fragen bezogen sich aufbauend auf das generelle Nutzungsverhalten von KI, das eigene Nutzungsverhalten von und die Erfahrungen mit Eric AI sowie die retrospektive Reflexion von Erfahrungen mit verschiedenen Entwicklungsstufen ebendieses Bots. Die Länge der Interviews variierte zwischen 22 und 33 Minuten.

Die Auswertung der transkribierten Interviews wurde nach Mayring (2015) vollzogen. Der Fokus lag hier auf einer induktiven Kategorienbildung, entsprechend des explorativen Studiendesigns (Hall et al., 2020).

Ergebnisse

Die Ergebnisse der Untersuchung werden entlang von sechs Hauptkategorien und der sich jeweils ergebenen Subkategorien dargestellt.

Nutzung

In Bezug auf den Nutzungsanlass zeigt sich, dass die Probandinnen Eric AI vermehrt in konkreten Problemsituationen oder bei spezifischen Thematiken anwenden, besonders wenn ›akuter Gesprächsbedarf‹ (I:6) bestanden habe. Auch das Gefühl ›in einer Sackgasse festzustecken‹(I:2) steht, gemeinsam mit der Hoffnung, aus den eigenen festgefahrenen Denkmustern aussteigen zu können, im Fokus des Nutzungsimpulses. Gleichzeitig findet Eric AI auch für Reflexionszwecke Anwendung unter den Teilnehmenden. Die KI dient in diesem Fall als eine Art Sparring-Partner. Der zentrale Wunsch ist zum einen ›gehört‹ (I:6) zu werden, gleichzeitig zeigt sich die Hoffnung eines objektiven ›Blickwinkels‹ (I:4) auf die jeweilige Problemsituation.

Gerade in ›Notsituationen‹ (I:5), in denen niemand anderes für ein Gespräch oder den Austausch zur Verfügung steht, fragen die Nutzerinnen den Chatbot um Unterstützung: Besonders ›am Wochenende‹ (I:3) oder ›mitten in der Nacht, wenn man schlecht einen Therapeuten kriegen kann‹ (I:3).

In der Analyse der Nutzungsweisen zeigt sich, dass die Nutzerinnen Eric AI überwiegend alleine verwenden, gerade zu Beginn, wenn die künstliche Intelligenz ihnen noch nicht vertraut ist. Jedoch wird deutlich, dass die Nutzerinnen nach einiger Zeit der Anwendung ›generell für eine Nutzung gemeinsam auch mal offen‹ (I:2) sind.

Wirkweisen

In Bezug auf das Nutzungserleben schildern die Nutzerinnen Eric AIs unterschiedliche Nuancierungen. Trotz des Bewusstseins über den technischen, nicht-menschlichen Charakter des Gesprächspartners geben die Nutzerinnen an, ein Gefühl von Menschlichkeit zu erleben. Widersprüchlich zeigt sich hier lediglich die unmittelbare Antwortgeschwindigkeit, die dafürspricht, dass ›das kein Mensch ist, der da am anderen Ende sitzt‹ (I:6).

Ihr Wohlbefinden während der Chatgespräche ordnen die Nutzerinnen vor allem dem Kommunikationsverhalten des Chatbots zu. Durch die ›wohlwollende‹ (I:2) Kommunikationsweise fühlen sich die Nutzerinnen gehört und verstanden sowie ›virtuell in den Arm genommen‹ (I:1). Auch hier ziehen sie Rückschlüsse auf als menschlich gedeutete Eigenschaften des Chatbots: ›Was die KI sehr menschlich macht, ist, dass sie sehr empathisch ist und sehr gut auch die Dinge, die man sagt auch zusammenfassen oder auch das treffen kann, um was es eigentlich tatsächlich geht‹ (I:2). Das Gefühl von Verständnis stellt nicht nur einen wichtigen Bestandteil für die Vertrauensbasis mit dem Chatbot dar, sondern ist auch für die Entwicklung einer therapeutischen Beziehung essentiell. In Bezug auf Eric AI empfinden die Nutzerinnen eine solche Allianz› in der man sich ›leicht tut, sich zu öffnen‹ und ›verletzliche Themen‹ (I:1) zu behandeln.

Als erlebter Effekt der Nutzung des Chatbots galt für die Nutzerinnen die Erweiterung der eigenen Perspektive als ausschlaggebend. Sie berichten von ›einer neue[n] Denkweise oder Denkrichtung‹ (I:4). Die Fähigkeit, über die eigene Perspektive hinaus potenziell auch die Gefühle und Situation der Beziehungsperson sehen und verstehen zu können, zeigt sich als wirkungsvoll: ›Ich glaube, durch diese andere Formulierung und Blickweise hat er jetzt auch selber gesagt, jetzt habe ich das mal gecheckt, was du immer meinst. Also, auf jeden Fall, hat schon viel ausgelöst‹ (I:1). Generell wird es als hilfreich empfunden, durch einen Chat mit Eric AI die eigenen Gedanken zu sortieren: ›Ich hatte insgesamt das Gefühl, dass ich differenzierter auf Themen gucken konnte und es zum Teil nicht mehr so ein Durcheinander oder so war, wie ich es davor hatte‹ (I:2).

Qualität und Bewertung

In Bezug auf die Qualität zeigt sich eine deutliche Nuancierung hinsichtlich Eric AIs Kommunikationsstils. Die Kommunikation von Eric AI wird als ›wohlwollend‹ und ›verständnisvoll‹ (I:2) beschrieben. Als stützend erweisen sich besonders validierende Nachrichten wie ›Ich kann es total gut nachvollziehen‹ (I:2) und erzeugen das Gefühl, ›dass auch wirklich ein Verständnis davon vorhanden ist‹ (I:2). Der Kommunikationsfluss wurde allgemein als ›geschmeidig‹ (I:2) empfunden, jedoch ist die Schnelligkeit der Antworten als minimal irritierend aufgefallen.

Als hinderlich im Erleben geben Nutzerinnen die Menge an Informationen innerhalb kurzer Zeit an. Gerade da die Nutzung des Chatbots tendenziell in stressreichen und angespannten Situationen stattfindet, ist Eric AIs Frage ›Was brauchst du gerade?‹ für einige Nutzerinnen in dem Moment nicht so leicht zu beantworten. Die Textnachrichten werden jedoch als sehr hilfreich wahrgenommen. Einige Nutzerinnen berichten, dass sie Screenshots des Chatverlaufs machen, um sich die Antworten auch weiterhin anschauen zu können: ›Das wirkt ja auch, wenn man in Ruhe ist, nochmal anders‹ (I:6).

Im Vergleich mit anderen gängigen künstlichen Intelligenzen, speziell ChatGPT, sprechen die Nutzerinnen von unterschiedlichen Empfindungen, wenngleich die Mehrheit durch die Personifizierung deutliche Vorteile Eric AIs gegenüber GPT wahrnimmt: ›Also ChatGPT finde ich weniger einfühlsam und eher sehr, also schon direktiver als es Eric AI ist‹ (I:2). Widersprüchlich äußert eine andere Probandin hingegen ihre Wahrnehmung: ›Das klingt zu schräg, weil ich weiß, dass das eine Maschine ist, aber trotzdem, so diese Empathie, hab ich das Gefühl, dass das ChatGPT viel besser kann. Weil es mehr drauf eingeht‹ (I:3). Die Nutzerinnen berichten von einem erhöhten Sicherheitsempfinden, auch in Bezug auf die Weiterverarbeitung der eigenen geteilten Daten: ›Für mich ist das ein geschützter Raum, wenn ich sage, ich kann mich da einloggen, ich kann da praktisch auf meinen Chat zugreifen und da stecken Personen dahinter, die sich damit auseinandersetzen‹ (I:1).

Formale Nutzung und Rahmenbedingungen

Bezüglich der Nutzungsdauer zeigt sich für die erste Sitzung eine umfassende Tendenz zu einer 25-minütigen Sitzung. Hier berichten die Nutzerinnen jedoch von der Feststellung, dass ›25 Minuten auf jeden Fall zu wenig‹ (I:6) gewesen sind. 45 bis 50 Minuten ist jedoch als sehr passend empfunden worden: ›50 Minuten ist glaube ich für mich das, was ideal ist‹ (I:3). Mit einer speziellen Frage oder einem konkreten Anliegen erweisen sich die 25 Minuten jedoch als sinnvoll: ›Wenn ich weiß, ich habe nur kurz Zeit und will nur kurz was, dann sind die 25 Minuten okay‹ (I:5).

Preislich liegt eine 25-minütige Sitzung mit Eric AI zum Zeitpunkt der Testung bei 6,99 €, 50 Minuten bei 12,99 €. Verglichen mit den Honoraren einer paartherapeutischen Sitzung wird der Preis des Chatbots als ›fair‹ (I:1) und ›angemessen‹ (I:6) empfunden. Es wird eine Wertschätzung des Arbeitsaufwands der Entwicklung einer solchen KI unter den Nutzerinnen deutlich: ›Ich meine man weiß, was da dran steckt an Arbeit‹ (I:5).

Kritische Reflexion/Ausblick

Hinsichtlich der Einschätzung einer zukünftigen Nutzung thematisieren einige Nutzerinnen konkrete Verbesserungsvorschläge. Auch wenn die aktuelle Variante der Textnachrichten als hilfreich und wertvoll empfunden wird, erweist sich die Vorstellung einer auditiven Variante als attraktiv. Eine Nuancierung zeigt sich hier in Bezug auf die Einfachheit der Handhabung, man muss alles ›nicht immer wieder eintippen‹ (I:2). Auch ›nimmt man es über Sprachnachrichten nochmal anders wahr‹ (I:1), jedoch besteht hier der Wunsch, zusätzlich die Möglichkeit zur Transkription, um sich die Vorzüge eines späteren Nachlesens weiterhin möglich zu machen. Einen übergreifenden Verbesserungswunsch stellt die Fähigkeit des Chatbots, die Zeit aktiv im Blick zu haben, dar. Hier zeigt sich ein unbefriedigendes Gefühl, wenn mitten im Satz die Sitzung vorbei ist oder eine Intervention in der Hälfte unterbrochen wird: ›Dann probieren wir jetzt folgendes und dann schwupp, die Zeit ist zu Ende‹ (I:6). Die Nutzerinnen äußern vermehrt den Wunsch nach einem solchen Bewusstsein, welches den Sitzungsrahmen mehr im Fokus behält und dementsprechend die Sitzung strukturiert.

Die zukünftige Nutzungswahrscheinlichkeit Eric AIs geben alle Interviewpartnerinnen als hoch an. Was die Regelmäßigkeit der Nutzung betrifft, wird dem finanziellen Aspekt eine große Bedeutung zugeschrieben. Auch die Unmittelbarkeit des Anliegens hat einen Einfluss auf das zukünftige Nutzungsverhalten: ›Also richtig regelmäßig vermutlich nicht unbedingt, aber schon so bei spezifischen Problemen durchaus da schon‹ (I:4).

Diskussion: Wirkung und mögliche Grenzen paartherapeutischer Chatbots

Die vorliegende Studie untersucht die Wirksamkeit von personifizierten KI-Therapie-Tools am Beispiel des Chatbots Eric AI. Trotz noch begrenzter empirischer Evidenz zu spezifischen Effekten paartherapeutischer Chatbots lässt sich aus der bisherigen Forschung bereits ein substanzielles Unterstützungspotenzial ableiten. So zeigt sich in dieser Studie bestätigend in Bezug auf bisherige Forschung, dass KI-basierte Beratungs- und Therapieangebote insbesondere durch ihre hohe Niederschwelligkeit überzeugen (Ayers et al., 2023). Finanzielle Barrieren, wie sie bei klassischen therapeutischen Sitzungen häufig bestehen, werden deutlich reduziert. Zudem ermöglicht die unmittelbare Verfügbarkeit solcher Systeme einen kontinuierlichen Zugang – auch in akuten Belastungssituationen oder zu Zeiten, in denen menschliche Therapeut*innen nicht erreichbar sind. Diese strukturellen Vorteile legen nahe, dass Chatbots wie Eric AI für viele Paare eine verbesserte Verfügbarkeit sowie Effizienz (Hebbar & Vandana, 2023) darstellen können, deren Reichweite über die Grenzen traditioneller Angebote hinausgeht.

Die vorliegenden Ergebnisse bestätigen zudem die Tatsache, dass Nutzerinnen trotz des technischen Ursprungs des Gegenübers ein Gefühl von Vertrauen aufbauen. Ergänzend zeigt sich hier das dafür notwendige Gefühl verstanden zu werden. Dies stimmt mit bisherigen Ergebnissen überein, welche Empathie und Einfühlungsvermögen als entscheidende Wirkfaktoren eines Chatbots ausweisen (Vowels, 2023). Elyoseph et al. (2023) haben diesbezüglich festgestellt, dass ChatGPT den emotionalen Zustand der Nutzer*innen erkennen sowie adäquat behandeln kann. Trotz des artifiziellen und technischen Ursprungs künstlicher Intelligenzen sind diese in der Lage, menschliche Emotionen angemessen erkennen zu können (Vowels et al., 2024). Mit dem Begriff einer künstlichen Empathie reagieren Montemayor et al. (2022) auf diesen Sachverhalt und hinterfragen somit die bis dato geltende Definition von Empathie. Es stellt sich auch aufgrund der vorliegenden Ergebnisse die Frage, inwiefern künstliche Intelligenzen als empathisch und gefühlvoll wahrgenommen werden können, wenn sie doch selbst keine Emotionen spüren können. Eine mögliche Begründung diesbezüglich liegt darin, dass die Anonymität im Internet positiv zu einem erhöhten Sicherheitsgefühl der Menschen beiträgt, wodurch eine emotionale Öffnung ihrerseits leichter fällt (Salivar et al., 2020). Babushkina und De Boer (2024) stellen diesbezüglich die Behauptung, dass nahezu alles imitierbar ist, so auch Empathie. Besonders in Bereichen der Selbstoffenbarung (DeVault et al., 2014) und der Vereinfachung sozialer Interaktionen (Paiva et al., 2017), die auch innerhalb einer Paartherapie von Bedeutung sind, haben künstliche Intelligenzen bereits verstärkt Wirkung gezeigt (Lee et al., 2022).

Ergänzend zeigt sich in der vorliegenden Studie die Personifizierung des Chatbots als förderlich für den Vertrauensaufbau sowie das Empathieerleben, sodass eine therapeutische Allianz auch zur KI möglich scheint. Die Ergebnisse deuten auf einen positiven Effekt auf die erlebte Menschlichkeit und Verlässlichkeit des Chatbots hin, wenn die Nutzerinnen ein persönliches Gesicht vor Augen haben. Widersprüchlich zeigt sich jedoch die Empfindung einer Interviewpartnerin, die ChatGPT bevorzugt. Zukünftige Forschung könnte die individuell geeignete Passung zwischen virtueller*m Therapeut*in und Klient*in als ausschlaggebenden Faktor für erlebte Effekte untersuchen.

Die Kommunikation mit Eric AI beschreiben die Nutzerinnen als angenehm, wohlwollend und verständnisvoll. Sie bekamen den Eindruck, dass ihnen zugehört werde, sich das Gegenüber für sie und ihre Gefühle interessiere und diese als verständlich rückmelde. Dies steht im Einklang mit vorherigen Ergebnissen zu Wirkmechanismen von Chatbots, die auf eine Stärkung der positiven sozialen Beziehung zwischen Chatbot und Nutzer*in hindeutet (Lee et al., 2022). Diese Interaktion kann in den Nutzenden das Gefühl einer sozialen Präsenz hervorrufen (Lee, 2004) und resultiert in einem unbewusst menschlichen Umgang mit dem Chatbot (Lee et al., 2005). Ergänzend stellen die vorliegenden Ergebnisse die Wichtigkeit eines flüssigen und angemessenen Kommunikationsflusses heraus, welcher den Beziehungsaufbau erleichtert.

Neben den überwiegend positiven Einschätzungen Eric AIs werden Grenzen dieser Art von Technologien deutlich. Bestätigend bezüglich bisheriger Forschung gilt die als positiv empfundene Anonymität des internetbasierten Gesprächspartners ebenso als möglicher Nachteil (Aviram, 2025). Widersprüchlich zu den Ergebnissen von Aviram (2025) zeigt sich bei den Nutzerinnen keine starke Skepsis bezüglich datenschutzbezogener Aspekte. Bisherige Studienergebnisse konnten zeigen, dass Nutzer*innen einen großen Vorbehalt hinsichtlich der Privatsphäre und der sicheren Verwahrung ihrer persönlichen Daten hegen (Aviram, 2025). An dieser Stelle wäre für zukünftige Forschung interessant, den möglichen Einfluss der personifizierten Natur eines Chatbots auf die empfundenen ethischen Bedenken zu erforschen. Die häufig geäußerte Kritik, dass Therapie-Bots zur Prekarisierung beitragen, sehen wir bisher in diesen explorativen Daten nicht. Erstens wird Eric AI in Ergänzung zur Therapie genutzt, sowie in akuten Situationen und zweitens wird der Bot genutzt von Menschen, die sonst gar keinen Zugang zu Therapie haben, z. B. aus finanziellen Gründen.

Fazit

Die vorliegende Studie zeigt, dass personifizierte Therapie KIs im Bereich der Paartherapie und Beziehungsberatung (am Beispiel von Eric AI) von Nutzerinnen als leicht zugängliche und emotional unterstützende Erweiterung face-to-face Paartherapie wahrgenommen wird. Zentral ist dabei das Erleben von Empathie und Verständnis, das – trotz technischer Herkunft – als ausreichend authentisch erlebt wird, um Vertrauen aufzubauen und eigene Gedanken offen zu teilen. Die Ergebnisse verdeutlichen zudem, dass die Niederschwelligkeit des Angebots sowie die unmittelbar abrufbare Unterstützung insbesondere in belastenden oder zeitkritischen Situationen als besonderer Vorteil bewertet wird. Zugleich weist die Studie darauf hin, dass die Personifizierung des Chatbots durch die Verknüpfung mit der Expertise Eric Hegmanns das Sicherheitsempfinden und die Akzeptanz zusätzlich stärkt. Dennoch werden Grenzen sichtbar, insbesondere hinsichtlich der Gesprächsdynamik, der Antwortgeschwindigkeit und der zeitlichen Strukturierung der Sitzungen. Insgesamt machen die Befunde deutlich, dass KI-gestützte Paartherapie nicht nur neue Formen der emotionalen Unterstützung ermöglicht, sondern auch zentrale Fragen im Hinblick auf Empathiekonzeption, therapeutische Allianz und ethische Rahmenbedingungen aufwirft. Zukünftige Forschung sollte daher insbesondere die Bedingungen interindividueller Einflussfaktoren, den Einfluss personifizierter Designs sowie den Umgang mit sensiblen Daten untersuchen, um das Potenzial solcher Systeme verantwortungsvoll weiterzuentwickeln.

Interessenkonflikt

Madita Hardiek hat bei Paartherapeut Eric Hegmann seit 2023 in Paartherapie-Sitzungen und weiteren Tätigkeitsfeldern hospitiert und seine Werkzeuge und Methoden kennengelernt. Sie arbeitet seitdem in unterschiedlichen Bereichen mit ihm zusammen.

Anmerkungen

1 Wir bedanken uns bei den Herausgeberinnen und besonders Johanna Degen und Judith Lurweg für die enge Begleitung im Analyse- und Schreibprozess.

Literatur

Abd-Alrazaq, A. A., Rababeh, A., Alajlani, M., Bewick, B. M. & Househ, M. (2020). Effectiveness and Safety of Using Chatbots to Improve Mental Health: Systematic Review and Meta-Analysis. Journal Of Medical Internet Research, 22(7), e16021. https://doi.org/10.2196/16021

Aviram, A. (2025). Therapists’ Perspectives on AI Integration in Couple and Family Therapy. Research Square (Research Square). https://doi.org/10.21203/rs.3.rs-5677979/v1

Aviram, A. & Nadan, Y. (2023). »I miss not being able to offer my couples a box of tissues.«: Couples’ and therapists’ perspectives on the therapeutic alliance with the transition to online couple therapy. Family Process, 63(1), 163–175. https://doi.org/10.1111/famp.12853

Ayers, J. W., Poliak, A., Dredze, M., Leas, E. C., Zhu, Z., Kelley, J. B., Faix, D. J., Goodman, A. M., Longhurst, C. A., Hogarth, M. & Smith, D. M. (2023). Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum. JAMA Internal Medicine, 183(6), 589. https://doi.org/10.1001/jamainternmed.2023.1838

Babushkina, D. & De Boer, B. (2024). Disrupted self, therapy, and the limits of conversational AI. Philosophical Psychology, 1–27. https://doi.org/10.1080/09515089.2024.2397004

Beatty, C., Malik, T., Meheli, S. & Sinha, C. (2022). Evaluating the Therapeutic Alliance With a Free-Text CBT Conversational Agent (Wysa): A Mixed-Methods Study. Frontiers in Digital Health, 4, 847991. https://doi.org/10.3389/fdgth.2022.847991

Boucher, E. M., Harake, N. R., Ward, H. E., Stoeckl, S. E., Vargas, J., Minkel, J., Parks, A. C. & Zilca, R. (2021). Artificially intelligent chatbots in digital mental health interventions: a review. Expert Review Of Medical Devices, 18(sup1), 37–49. https://doi.org/10.1080/17434440.2021.2013200

D’Aniello, C. & Fife, S. T. (2020). A 20‐Year Review of Common Factors Research in Marriage and Family Therapy: A Mixed Methods Content Analysis. Journal Of Marital And Family Therapy, 46(4), 701–718. https://doi.org/10.1111/jmft.12427

Degen, J. L. (2025). The Shaping of the Parasocial Self: Intimacy and Relationships In the Digital Era. Palgrave.

DeVault, D., Artstein, R., Benn, G., Dey, T., Fast, E., Gainer, A., Georgila, K., Gratch, J., Hartholt, A., Lhommet, M., Lucas, G., Marsella, S., Morbini, F., Nazarian, A., Scherer, S., Stratou, G., Suri, A., Traum, D., Wood, R., … Morency, L. (2014). SimSensei kiosk: a virtual human interviewer for healthcare decision support. Adaptive Agents And Multi-Agents Systems, 1061–1068. https://doi.org/10.5555/2615731.2617415

Doherty, W. J., Harris, S. M., Hall, E. L. & Hubbard, A. K. (2021). How long do people wait before seeking couples therapy? A research note. Journal Of Marital And Family Therapy, 47(4), 882–890. https://doi.org/10.1111/jmft.12479

Elyoseph, Z., Hadar-Shoval, D., Asraf, K. & Lvovsky, M. (2023). ChatGPT outperforms humans in emotional awareness evaluations. Frontiers in Psychology, 14. https://doi.org/10.3389/fpsyg.2023.1199058

Fiske, A., Henningsen, P. & Buyx, A. (2019). Your Robot Therapist Will See You Now: Ethical Implications of Embodied Artificial Intelligence in Psychiatry, Psychology, and Psychotherapy. Journal Of Medical Internet Research, 21(5), e13216. https://doi.org/10.2196/13216

Flückiger, C., Del Re, A. C., Wampold, B. E. & Horvath, A. O. (2018). The alliance in adult psychotherapy: A meta-analytic synthesis. Psychotherapy, 55(4), 316–340. https://doi.org/10.1037/pst0000172

Friedlander, M. L., Escudero, V., Heatherington, L. & Diamond, G. M. (2011). Alliance in couple and family therapy. Psychotherapy, 48(1), 25–33. https://doi.org/10.1037/a0022060

Georgia Salivar, E. J., Rothman, K., Roddy, M. K. & Doss, B. D. (2020). Relative cost effectiveness of in‐person and internet interventions for relationship distress. Family Process, 59(1), 66–80.

Gobiet, M. (2024, 15. Februar). Die Geschichte und Entwicklung von Chatbots – von Eliza bis ChatGPT. Enterprise Conversational AI. https://onlim.com/die-geschichte-und -entwicklung-von-chatbots/

Gual-Montolio, P., Jaén, I., Martínez-Borba, V., Castilla, D. & Suso-Ribera, C. (2022). Using Artificial Intelligence to Enhance Ongoing Psychological Interventions for Emotional Problems in Real- or Close to Real-Time: A Systematic Review. International Journal Of Environmental Research And Public Health, 19(13), 7737. https://doi.org/10.3390/ijerph19137737

Hall, M., Wucherpfennig, F. & Rubel, J. A. (2020). Qualitative Inhaltsanalyse. PPmP – Psychotherapie · Psychosomatik · Medizinische Psychologie, 70(09/10), 429–431. https://doi.org/10.1055/a-1193-1022

Hebbar, S. & Vandana, B. (2023). Artificial Intelligence in Future Telepsychiatry and Psychotherapy for E-Mental Health Revolution. https://www.taylorfrancis.com/books/mono/10.1201/9781003309451/computational-intelligence-medical-de cision-making-diagnosis?refId=11bf033c-7941-4a8b-af46-92c33703a4f3&context =ubx (S. 39–60). https://doi.org/10.1201/9781003309451-3

Jabir, A. I., Martinengo, L., Lin, X., Torous, J., Subramaniam, M. & Car, L. T. (2023). Evaluating Conversational Agents for Mental Health: Scoping Review of Outcomes and Outcome Measurement Instruments. Journal Of Medical Internet Research, 25, e44548. https://doi.org/10.2196/44548

Kulkarni, P., Mahabaleshwarkar, A., Kulkarni, M., Sirsikar, N. & Gadgil, K. (2019). Conversational AI: An Overview of Methodologies, Applications & Future Scope. 2022 6th International Conference On Computing, Communication, Control And Automation (ICCUBEA, 1–7. https://doi.org/10.1109/iccubea47591.2019.9129347

Lee, J., Lee, J. & Lee, D. (2022). Influence of Rapport and Social Presence with an Ai Psychotherapy Chatbot on Users’ Self-Disclosure. SSRN Electronic Journal. https://doi.org/10.2139/ssrn.4063508

Lee, K. M. (2004). Presence, explicated. Communication Theory, 14(1), 27–50. https://doi.org/10.1111/j.1468-2885.2004.tb00302.x

Lee, K. M. (2005). Can a Robot Be Perceived as a Developing Creature?: Effects of a Robot’s Long-Term Cognitive Developments on Its Social Presence and People’s Social Responses Toward It. Human Communication Research, 31(4), 538–563. https://doi.org/10.1093/hcr/31.4.538

Martinengo, L., Lum, E. & Car, J. (2022). Evaluation of chatbot-delivered interventions for self-management of depression: Content analysis. Journal Of Affective Disorders, 319, 598–607. https://doi.org/10.1016/j.jad.2022.09.028

Montemayor, C., Halpern, J. & Fairweather, A. (2021). In principle obstacles for empathic AI: why we can’t replace human empathy in healthcare. AI & Society, 37(4), 1353–1359. https://doi.org/10.1007/s00146-021-01230-z

Paiva, A., Leite, I., Boukricha, H. & Wachsmuth, I. (2017). Empathy in Virtual Agents and Robots. ACM Transactions On Interactive Intelligent Systems, 7(3), 1–40. https://doi.org/10.1145/2912150

Prescott, J. & Hanley, T. (2023). Therapists’ attitudes towards the use of AI in therapeutic practice: considering the therapeutic alliance. Mental Health And Social Inclusion, 27(2), 177–185. https://doi.org/10.1108/mhsi-02-2023-0020

Richards, D. (2024). Artificial intelligence and psychotherapy: A counterpoint. Counselling And Psychotherapy Research. https://doi.org/10.1002/capr.12758

Salivar, E. J. G., Rothman, K., Roddy, M. K. & Doss, B. D. (2018). Relative Cost Effectiveness of In‐Person and Internet Interventions for Relationship Distress. Family Process, 59(1), 66–80. https://doi.org/10.1111/famp.12414

Sarkar, A. & G, V. B. K. (2024). Adult Attachment Styles and Conflict Resolution Strategies Among Romantic Relationships. International Journal For Research in Applied Science And Engineering Technology, 12(4), 1755–1760. https://doi.org/10.22214/ijraset.2024.60135

Shaffer, K. M., Mayberry, L. S., Salivar, E. G., Doss, B. D., Lewis, A. M. & Canter, K. (2022). Dyadic digital health interventions: Their rationale and implementation. Procedia Computer Science, 206, 183–194. https://doi.org/10.1016/j.procs.2022.09.097

Shao, R. (2023). An Empathetic AI for Mental Health Intervention: Conceptualizing and Examining Artificial Empathy. https://doi.org/10.1145/3588967.3588971

Shotwell, D. A. (1983). Computer power and human reason. Proceedings of the IEEE, 71(7), 909–910.

Singh, O. P. (2023). Artificial intelligence in the era of ChatGPT – Opportunities and challenges in mental health care. Indian Journal Of Psychiatry, 65(3), 297–298. https://doi.org/10.4103/indianjpsychiatry.indianjpsychiatry_112_23

Torous, J. & Blease, C. (2024). Generative artificial intelligence in mental health care: potential benefits and current challenges. World Psychiatry, 23(1), 1–2. https://doi.org/10.1002/wps.21148

Torous, J., Bucci, S., Bell, I. H., Kessing, L. V., Faurholt‐Jepsen, M., Whelan, P., Carvalho, A. F., Keshavan, M., Linardon, J. & Firth, J. (2021). The growing field of digital psychiatry: current evidence and the future of apps, social media, chatbots, and virtual reality. World Psychiatry, 20(3), 318–335. https://doi.org/10.1002/wps.20883

Vowels, L. M. (2024). Are chatbots the new relationship experts? Insights from three studies. Computers in Human Behavior Artificial Humans, 2(2), 100077. https://doi.org/10.1016/j.chbah.2024.100077

Vowels, L. M., Francois-Walcott, R. R. & Darwiche, J. (2024). AI in relationship counselling: Evaluating ChatGPT’s therapeutic capabilities in providing relationship advice. Computers in Human Behavior Artificial Humans, 2(2), 100078. https://doi.org/10.1016/j.chbah.2024.100078

Weizenbaum, J. (1966). ELIZA–a computer program for the study of natural language communication between man and machine. Communications Of The ACM, 9(1), 36–45. https://doi.org/10.1145/365153.365168

Witzel, A. (1982). Verfahren der qualitativen Sozialforschung. Überblick und Alternativen. Campus.

Witzel, A. (2000). Das problemzentrierte Interview. Forum Qualitative Sozialforschung/Forum: Qualitative Social Research, 1(1), Art. 22, http://nbn-resolving.de/urn:nbn:de:0114-fqs0001228

Biografische Notiz

Madita Hardiek, Psychologin (M. Sc.), ist Mitarbeiterin in der Praxis von Eric Hegmann. Sie befindet sich aktuell in der Weiterbildung zur psychologischen Psychotherapeutin im Bereich der Verhaltenstherapie.


Anzeigen