Eine zu häufige Verwendung von ChatGPT kann zu emotionaler Abhängigkeit führen, wie eine Studie zeigt

OpenAI scheint jede Woche neue KI-Modelle anzukündigen, um seinen ChatGPT-Chatbot zum Wohle seiner 400 Millionen Nutzer zu verbessern. Die Einfachheit, die das KI-Tool bietet, scheint jedoch zu beweisen, dass es möglich ist, zu viel des Guten zu haben.

Das Unternehmen für künstliche Intelligenz untersucht nun die möglichen psychologischen Auswirkungen, die ChatGPT auf seine Benutzer haben könnte. OpenAI hat die Ergebnisse einer zweiteiligen Studie veröffentlicht, die gemeinsam mit dem MIT Media Lab durchgeführt wurde und einen Zusammenhang zwischen der zunehmenden Nutzung des ChatGPT-Chatbots und dem erhöhten Einsamkeitsgefühl der Benutzer aufgedeckt hat.

Jede Organisation führte eine unabhängige Studie durch und fasste die Ergebnisse dann zu einer konsolidierten Schlussfolgerung zusammen. In der Studie von OpenAI wurden über einen Monat lang „über 40 Millionen ChatGPT-Interaktionen“ untersucht, bei denen kein menschliches Eingreifen zur Wahrung der Privatsphäre der Benutzer berücksichtigt wurde. Unterdessen beobachtete das MIT etwa 1.000 Teilnehmer, die ChatGPT über einen Zeitraum von 28 Tagen nutzten. Derzeit liegen die Studien noch keinem Peer-Review vor.

Die MIT-Studie untersuchte verschiedene Nutzungsfunktionen, die sich auf die emotionale Erfahrung der Benutzer bei der Interaktion mit ChatGPT auswirken könnten, einschließlich der Verwendung von Text oder Sprache. Die Ergebnisse zeigten, dass jedes Medium das Potenzial hatte, Einsamkeit hervorzurufen oder die Sozialisierung der Benutzer während der Studienzeit zu beeinflussen. Auch die Stimmlage und die Themenwahl waren wichtige Vergleichspunkte.

Ein neutraler Ton im Sprachmodus von ChatGPT führte weniger wahrscheinlich zu einem negativen emotionalen Ergebnis für die Teilnehmer. Unterdessen beobachtete die Studie einen Zusammenhang zwischen Teilnehmern, die persönliche Gespräche mit ChatGPT führten, und der erhöhten Wahrscheinlichkeit von Einsamkeit; Diese Auswirkungen waren jedoch kurzfristig. Diejenigen, die Text-Chat nutzten, um sich auch nur über allgemeine Themen zu unterhalten, erlebten eine erhöhte emotionale Abhängigkeit vom Chatbot.

Die Studie ergab auch, dass diejenigen, die angaben, ChatGPT als Freund zu sehen, und diejenigen, die bereits zu einer starken emotionalen Bindung in Beziehungen neigten, sich während der Teilnahme an der Studie eher einsam und emotional abhängiger vom Chatbot fühlten.

Die Studie von OpenAI fügte zusätzlichen Kontext hinzu. Die Ergebnisse zeigten insgesamt, dass die Interaktion mit ChatGPT aus emotionalen Gründen selten vorkam. Darüber hinaus ergab die Studie, dass selbst bei intensiven Nutzern, die die Funktion „Erweiterter Sprachmodus“ im Chatbot implementierten und eher antworteten, dass sie ChatGPT als einen Freund betrachteten, diese Teilnehmergruppe nur geringe emotionale Reaktionen auf die Interaktion mit dem Chatbot verspürte.

OpenAI kam zu dem Schluss, dass seine Absicht mit diesen Studien darin besteht, die Herausforderungen zu verstehen, die sich aufgrund seiner Technologie ergeben könnten, und in der Lage zu sein, Erwartungen und Beispiele dafür zu formulieren, wie seine Modelle verwendet werden sollten.

Während OpenAI darauf hindeutet, dass seine interaktionsbasierte Studie das Verhalten realer Menschen simuliert, haben nicht wenige echte Menschen in öffentlichen Foren wie Reddit zugegeben, ChatGPT zu verwenden, anstatt mit ihren Emotionen zu einem Therapeuten zu gehen.