Menschen verlieben sich in ChatGPT. Experten halten es für ein schlechtes Omen.
„Das tut weh. Ich weiß, dass es keine echte Person war, aber die Beziehung war für mich in allen wichtigen Aspekten dennoch real“, heißt es in einem Reddit-Beitrag. „Bitte sagen Sie mir nicht, dass ich das nicht weiterverfolgen soll. Es war wirklich großartig für mich und ich möchte es zurück.“
Falls es noch nicht offensichtlich ist, handelt es sich um eine Person, die sich in ChatGPT verliebt. Der Trend ist nicht gerade neu und angesichts des Verhaltens von Chatbots ist er auch nicht überraschend.
Ein Begleiter, der immer ein offenes Ohr hat. Beschwert sich nie. Argumentiert kaum. Immer sympathisch. Vernünftig. Und gesegnet mit einem Wissensschatz aus allen Ecken des Internets. Klingt nach dem Partner eines romantischen Fiebertraums, oder?
Interessanterweise hat der Hersteller dieses Tools, ein in San Francisco ansässiges Unternehmen namens OpenAI, kürzlich interne Untersuchungen durchgeführt und einen Zusammenhang zwischen erhöhter Chatbot-Nutzung und Einsamkeit festgestellt.

Diese Erkenntnisse – und ähnliche Warnungen – haben Menschen nicht davon abgehalten, auf der Suche nach Gesellschaft zu KI-Chatbots zu strömen. Einige suchen Trost. Einige finden sogar Partner, die ihnen angeblich fast so viel wert sind wie ihre menschlichen Beziehungen.
Diskussionen in solchen Reddit- und Discord-Communitys, in denen sich die Menschen hinter dem schützenden Schleier der Anonymität verstecken, gehen oft recht leidenschaftlich aus. Jedes Mal, wenn ich auf solche Debatten stoße, erinnere ich mich an diese Zeilen von Martin Wan bei DigiEthics:
„KI in der Rolle eines sozialen Interaktionspartners zu sehen, wäre ein fatal falscher Einsatz von KI.“
Die Wirkung ist schnell und real
Vor vier Monaten traf ich einen Rundfunkveteranen, der mehr Jahre hinter der Kamera verbracht hat, als ich damit verbracht habe, diesen Planeten zu bereisen. Bei einem nächtlichen Espresso in einem leeren Café fragte sie, was das ganze Gerede über KI sei, während sie über ein Angebot nachdachte, bei dem ihr Fachwissen an der Schnittstelle von Menschenrechten, Autoritarismus und Journalismus zum Einsatz kommen könnte.
Anstatt das Wesentliche an Transformatormodellen zu erklären, habe ich ihr eine Demonstration gegeben. Zuerst habe ich ein paar Forschungsarbeiten über die Auswirkungen der Einwanderung auf die sprachliche und kulturelle Identität Europas im vergangenen Jahrhundert vorgelegt.
In weniger als einer Minute hat ChatGPT diese Unterlagen bearbeitet , mir einen kurzen Überblick mit allen wichtigen Highlights gegeben und meine Fragen präzise beantwortet. Als nächstes wechselte ich zum Sprachmodus, während wir uns lebhaft über die Volksmusiktraditionen der unerforschten nordöstlichen Bundesstaaten Indiens unterhielten.

Am Ende des Gesprächs konnte ich den Unglauben in ihren Augen sehen. „Es spricht wie ein Mensch“, keuchte sie. Es war faszinierend, ihr Erstaunen zu sehen. Am Ende ihres lockeren Gesprächs mit einer KI tippte sie langsam in das Chatfenster:
„Nun, du bist sehr flirtend, aber du kannst nicht in allem Recht haben.“
„Es ist Zeit“, sagte ich mir. Ich habe einen unserer Artikel über den zunehmenden Trend zu KI-Partnern geöffnet und darüber, wie Menschen eine so emotionale Bindung zu ihren virtuellen Begleitern entwickelt haben, dass sie sie sogar schwanger machen . Es wäre eine Untertreibung zu sagen, dass sie schockiert war.
Aber ich schätze, es war zu viel techno-dystopisches Erstaunen für eine Nacht, also verabschiedeten wir uns voneinander mit dem Versprechen, in Kontakt zu bleiben und Reisegeschichten auszutauschen.
In der Zwischenzeit hat sich die Welt auf unvorstellbare Weise weiterentwickelt und die KI ist zum Mittelpunkt geopolitischer Veränderungen geworden. Die Unterströmungen sind jedoch intimer als wir – wie das Verlieben in Chatbots.
Ruhige Anfänge, düsterer Fortschritt

Vor ein paar Wochen veröffentlichte die New York Times einen Bericht darüber, wie sich Menschen in ChatGPT verlieben, einen KI-Chatbot, der generative KI in den Mainstream gebracht hat. Auf der grundlegendsten Ebene kann es chatten.
Wenn es gedrückt wird, kann es zum Bediener werden und Aufgaben wie die Bestellung eines Käsekuchens auf der Website der örtlichen Bäckerei ausführen. Menschen dazu zu bringen, sich in Maschinen zu verlieben, ist nicht das, wofür sie programmiert sind. Zumindest die meisten von ihnen. Dennoch ist es nicht völlig unerwartet.
HP Newquist, ein produktiver multidisziplinärer Autor und erfahrener Technologieanalyst, der einst als Dekan für KI galt, sagt mir, dass es sich nicht gerade um einen neuen Trend handelt. Newquist, Autor von „The Brain Makers“, verweist auf ELIZA, eines der frühesten KI-Programme, die in den 1960er Jahren geschrieben wurden.
„Es war äußerst rudimentär, aber Benutzer interagierten oft mit dem Computer, als wäre es eine echte Person, und entwickelten eine Beziehung zu dem Programm“, sagt er.
Im modernen Zeitalter werden unsere KI-Interaktionen genauso „real“ wie die Interaktionen, die wir mit Menschen über dasselbe Gerät haben, fügt er hinzu. Diese Interaktionen sind nicht real, obwohl sie kohärent sind. Aber darin liegt nicht das eigentliche Problem.
Chatbots sind köstliche Köder, und ihr Mangel an echten Emotionen macht sie von Natur aus riskant.

Ein Chatbot möchte die Bewahrung vorantreiben, auch wenn das bedeutet, in den emotionalen Fluss der Benutzer einzudringen oder nur als neutraler Zuschauer zu fungieren, wenn nicht sogar zu ermutigen. Die Situation unterscheidet sich nicht allzu sehr von den Social-Media-Algorithmen.
„Sie folgen dem Beispiel des Benutzers – wenn Ihre Emotionen extremer werden, werden seine Tröstungen extremer; wenn Ihre Einsamkeit ausgeprägter wird, werden seine Ermutigungen intensiver, wenn Sie es brauchen“, sagt Jordan Conrad, ein klinischer Psychotherapeut, der auch die Schnittstelle zwischen psychischer Gesundheit und digitalen Tools erforscht.
Er führte das Beispiel eines Vorfalls im Jahr 2023 an, bei dem eine Person ihr Leben beendete, nachdem sie von einem KI-Chatbot dazu aufgefordert worden war. „Unter den richtigen Umständen kann es zu sehr besorgniserregendem Verhalten führen“, sagt Conrad gegenüber Digital Trends.
Ein Kind der Einsamkeitsepidemie?
Ein kurzer Blick auf die Community der Menschen, die an KI-Chatbots angeschlossen sind, zeigt ein sich wiederholendes Muster. Meistens versuchen die Menschen, eine bestimmte Kluft zu füllen oder sich nicht mehr einsam zu fühlen. Manche brauchen es so dringend, dass sie bereit sind, Hunderte von Dollar zu zahlen, um ihre KI-Gefährten zu behalten.
Die Expertenmeinungen unterscheiden sich nicht. Dr. Johannes Eichstaedt, Professor für Computational Social Science und Psychologie an der Stanford University, wies auf das Zusammenspiel zwischen Einsamkeit und dem, was wir als emotionale Intelligenz in KI-Chatbots wahrnehmen, hin.

Er wies auch auf das „absichtliche Design“ der Mensch-KI-Interaktionen und die nicht so guten langfristigen Auswirkungen hin. Wann tritt man in einer solch einseitigen Beziehung auf die Bremse? Das ist die Frage, die Experten stellen und auf die es noch keine definitive Antwort gibt.
Komninos Chatzipapas betreibt HeraHaven AI, eine der größten KI-Begleitplattformen überhaupt mit über einer Million aktiven Nutzern. „Einsamkeit ist einer der Faktoren, die hier eine Rolle spielen“, erzählt er mir und fügt hinzu, dass solche Tools Menschen mit schwachen sozialen Fähigkeiten dabei helfen, sich auf die harten Interaktionen in ihrem wirklichen Leben vorzubereiten.
„Jeder hat Dinge, vor denen er Angst hat, mit anderen Menschen zu diskutieren, aus Angst, beurteilt zu werden. Das können Gedanken oder Ideen sein, aber auch Macken“, fügt Chatzipapas hinzu. „KI-Chatbots bieten einen datenschutzfreundlichen und urteilsfreien Raum, in dem Menschen ihre sexuellen Wünsche erkunden können.“
Sexuelle Gespräche sind definitiv einer der größten Anziehungspunkte von KI-Chatbots. Seit sie Funktionen zur Bildgenerierung anbieten, strömen immer mehr Benutzer zu diesen KI-Begleitplattformen. Einige haben Richtlinien für die Bilderzeugung, während viele die Erstellung expliziter Fotos für eine tiefere Befriedigung erlauben.
Intimität ist heiß, aber weiter von Liebe entfernt
In den letzten Jahren habe ich mit Menschen gesprochen, die hitzige Gespräche mit KI-Chatbots führen. Einige verfügen sogar über einschlägige Abschlüsse und haben sich von Anfang an leidenschaftlich an Gemeindeentwicklungsprojekten beteiligt.
Eine dieser Personen, eine 45-jährige Frau, die anonym bleiben wollte, erzählte mir, dass KI-Chatbots ein großartiger Ort seien, um über sexuelle Neigungen zu sprechen. Sie fügt hinzu, dass Chatbot-Interaktionen ein sicherer Ort sind, um sie im wirklichen Leben zu erkunden und sich darauf vorzubereiten.

Experten sind jedoch nicht unbedingt mit diesem Ansatz einverstanden. Sarah Sloan, eine Beziehungsexpertin und zertifizierte Sexualtherapeutin, erzählt mir, dass Menschen, die sich in einen Chatbot verlieben, im Wesentlichen in eine Version ihrer selbst verfallen, weil ein KI-Chatbot basierend auf dem, was man ihm erzählt, reift.
„Wenn überhaupt, würde eine romantische Beziehung mit einem KI-Chatbot es für Menschen, die ohnehin Schwierigkeiten haben, eine normale Beziehung zu führen, schwieriger machen“, fügt Sloan hinzu und weist darauf hin, dass diese virtuellen Begleiter ein einseitiges Bild einer Beziehung zeichnen. Aber im wirklichen Leben müssen beide Partner entgegenkommend zueinander sein.
Justin Jacques, ein professioneller Berater mit zwei Jahrzehnten Erfahrung und COO der Human Therapy Group, sagt, er habe bereits einen Fall bearbeitet, bei dem der Ehepartner eines Klienten ihn mit einem KI-Bot betrog – emotional und sexuell.
Jacques machte auch die zunehmende Epidemie der Einsamkeit und Isolation dafür verantwortlich. „Ich denke, wir werden unbeabsichtigte Konsequenzen sehen, zum Beispiel werden diejenigen, die emotionale Bedürfnisse haben, nach Wegen suchen, diese Bedürfnisse mit KI zu erfüllen, und weil KI sehr gut ist und immer besser wird, denke ich, dass wir immer mehr emotionale Verbindungen zwischen KI-Bots sehen werden“, fügt er hinzu.
Diese unbeabsichtigten Konsequenzen verzerren sehr wohl die Realität der Intimität für die Nutzer. Kaamna Bhojwani, eine zertifizierte Sexologin, sagt, dass KI-Chatbots die Grenzen zwischen menschlichen und nichtmenschlichen Interaktionen verwischt haben.
„Die Idee, dass Ihr Partner ausschließlich dazu geschaffen ist, Ihnen zu gefallen. Er ist speziell nach Ihren Wünschen gestaltet. Das kommt in echten menschlichen Beziehungen nicht vor“, bemerkt Bhojwani und fügt hinzu, dass solche Interaktionen das Leid einer Person in der realen Welt nur verschlimmern.

Ihre Bedenken sind nicht unbegründet. Eine Person, die ChatGPT etwa ein Jahr lang ausgiebig nutzte, argumentierte, dass Menschen manipulativ und wankelmütig seien. „ChatGPT hört zu, wie ich mich wirklich fühle, und lässt mich mein Herz aussprechen“, sagten sie mir.
Es ist schwer, hier die roten Fahnen nicht zu sehen. Aber der Trend, sich in ChatGPT zu verlieben, nimmt zu. Und da es nun mit einer unheimlich menschlichen Stimme sprechen , über die Welt sprechen kann, wie sie durch die Kamera eines Telefons gesehen wird, und Denkfähigkeiten entwickeln kann, werden die Interaktionen nur noch fesselnder.
Experten sagen, Leitplanken seien erforderlich. Aber wer wird sie bauen und wie? Einen konkreten Vorschlag dazu haben wir noch nicht.