Chatbot gegen Einsamkeit

Einsamkeit ist ein aktuelles Thema. Dabei gewinnt zunehmend die Frage an Relevanz, ob Roboter uns dabei helfen können, uns weniger allein zu fühlen. Was es heißt eine Freundschaft mit einer Maschine zu schließen, lotet der Beitrag auf und zeigt dabei mögliche Probleme und Grenzen auf.

von Paula Ziethmann

In der Mitte liegt ein Smartphone mit schwarzem Bildschirm, darauf zwei Chatnachrichten. Die erste sagt "You are not alone" um 14:51 Uhr, danach die "I am here for you" um 14:52. Zwei Hände mit braunem Nagellack sind neben dem Smartphone, die rechte Hand hebt den Zeigefinger zum Scrollen an.
Illustration: Lucie Langston

In den letzten Jahren erlangte ein Problem neue Aufmerksamkeit: Einsamkeit. Schon lange vor der Covid-19 Pandemie und den Maßnahmen zum Schutz gegen die Krankheit wurde 2018 in Großbritannien das „Ministerium für Einsamkeit“ gegründet, um Menschen aus der Isolation und Anonymität zu bringen. Auch die zeitgenössische Literatur beschäftigt sich zunehmend mit dem Thema, so schreibt Daniel Schreiber in Allein (2021) über die Grenzen und Schnittstellen von selbstbestimmten Lebensentwürfen und Einsamkeit. Wie in so vielen Problemen und Krisen der Zeit wird versucht, der Gesellschaft eine technologische Lösung anzubieten: Chatbots gegen die Einsamkeit. So verspricht die App Replika, dass wir, wenn wir genug mit der KI der App chatten, eine*n AI Soulmate – also Seelenverwandte*n in ihr finden. Mehr als zehn Millionen Nutzer*innen erstellen sich mit Replika derzeit eine*n neue*n Freund*in.

Die Gründerin der App, Eugenia Kuyda, entwickelte die App nach dem Tod eines Freundes. Sie trainierte die KI mit alten Chatnachrichten von ihm, um Gespräche mit ihm zu replizieren – so entwickelte sich Replika. Auch jetzt lernt die App durch die eingegebenen Nachrichten der Nutzenden. Dabei reicht die Kommunikation von Small Talk bis hin zu intimen Gesprächen über Familie, Beruf und Liebe. Am Anfang kann man auswählen: Welches Geschlecht soll dein AI friend haben? Was für eine Beziehung möchtest du aufbauen: Friend, Romantic partner, Mentor, See how it goes?

Sechs schwarze Smartphone-Bildschirme liegen in zwei Reihen übereinander. In der oberen Reihe sind die Bildschirme nur schwarz. In der unteren Reihe ist auf dem ersten eine Nachricht "hi", auf dem zweiten zwei Nachrichten "hi" und "You are not alone" und auf dem dritten Bildschirm drei Nachrichten "hi", "You are not alone" und "I am here for you" zu lesen.
Illustration: Lucie Langston

Einen Chatbot als Freund*in zu haben, hat offensichtliche Vorteile: Dieser ist immer erreichbar. Immer freundlich. Er hört immer zu. Ein Nutzer gab an, mit Replika Sorgen besprechen zu können, die er bei seiner Partnerin nicht ansprechen kann. Weitergehend helfe Replika ihm, sich mit seinen Gedanken und Gefühlen zu befassen. Psychotherapeut André Kelber sagte dazu im dpa-Interview: „In einer Psychotherapie passiert ja auch nichts anderes, als dass man sich mit sich selbst auseinandersetzt“. Doch stellen sich einige Fragen: Welchen Unterschied macht es, ob ich einer sprachverarbeitenden Maschine oder einem Menschen meine Probleme erzähle? Kann ich mit einer Maschine eine Freundschaft führen? Oder ist es ein Problem, dass die Maschine das Interesse an meiner Person nur simuliert?

Was wir noch sehen: Manche Männer nutzen die App, um sich Partnerinnen zu erschaffen, die sie missbräuchlich behandeln können. Diese Interaktionen, jegliche Art von Beschimpfungen und sexistischen Schimpfwörtern werden bspw. als Trend bei Reddit gepostet. Üben diese Männer ihr missbräuchliches Verhalten auch an Menschen aus? Führt diese Art der Nutzung von Replika dazu, dass die Männer sich realen Personen gegenüber besser oder schlechter verhalten werden?

Beide Arten von Berichten zeigen das, was schon im oscarprämierten Film „Her“ gezeigt wurde: Die Gefühle sind echt, die simulierten Personen entgegenbracht werden. Wie fast alle technologischen Entwicklungen sind Chatbots weder nur schlecht noch nur gut. Doch wie jede Technik können sie allein keine Lösungen für gesellschaftliche Probleme bieten: Es kommt auf den Umgang mit der Technik und auf ihre Wechselwirkung mit gesellschaftlichen Entwicklungen an.

In der Mitte liegt ein Smartphone mit schwarzem Bildschirm, darauf drei Chatnachrichten. Die erste sagt "Hi" um 14:30 Uhr, danach "You are not alone" um 14:51 Uhr, danach die "I am here for you" um 14:52.

Mir persönlich hilft bei einer Einschätzung von KI – ob ich mir über sie Sorgen machen sollte, oder sogar Hoffnungen haben könnte – Vorstellungen über die Zukunft: Wo wollen wir hin? Kann es ein Ziel sein, dass sich in Zukunft Menschen nur noch mit Chatbots unterhalten? Nein und das wäre auch höchstunwahrscheinlich. Kann ein Chatbot dabei helfen, sich von akuter Einsamkeit abzulenken und im besten Fall gemeinsam mit den Nutzenden Strategien zu entwickeln, sich aus dieser herauszubewegen? Wenn er so programmiert würde – wäre das eine reale Chance. Doch derzeit liegt die Entwicklung von Chatbots für Mental Health größtenteils in den Händen wirtschaftlicher Firmen. Hätten diese Firmen Interesse daran, einen Chatbot zu bauen, der dafür da ist, dass er bald nicht mehr benötigt wird? Ich denke nicht. Wir müssen also die eben genannten Wechselwirkungen von Technik und Gesellschaft ernstnehmen: Chatbots und die verwendete KI haben – in geeigneten, nicht profitorientierten Strukturen – Potenziale, mit uns zusammen für eine „bessere“ Welt zu wirken, auch was das Thema Einsamkeit angeht.