Klinischer Test zeigt, dass KI eine ebenso gute Therapie anbieten kann wie ein zertifizierter Experte

KI wird stark in den Bereich der Forschung und Medizin gedrängt. Von der Arzneimittelentdeckung bis zur Diagnose von Krankheiten waren die Ergebnisse recht ermutigend . Aber wenn es um Aufgaben geht, bei denen Verhaltenswissenschaften und Nuancen ins Spiel kommen, geht es schief. Es scheint, dass ein von Experten abgestimmter Ansatz der beste Weg nach vorn ist.

Experten des Dartmouth College führten kürzlich die erste klinische Studie mit einem KI-Chatbot durch, der speziell für die Bereitstellung von psychischer Gesundheitshilfe entwickelt wurde. Der KI-Assistent namens Therabot wurde in Form einer App an Teilnehmern in den Vereinigten Staaten getestet, bei denen schwere psychische Probleme diagnostiziert wurden.

„Die von uns beobachteten Verbesserungen der Symptome waren vergleichbar mit den Berichten für die traditionelle ambulante Therapie, was darauf hindeutet, dass dieser KI-gestützte Ansatz klinisch bedeutsame Vorteile bieten könnte“, bemerkt Nicholas Jacobson, außerordentlicher Professor für biomedizinische Datenwissenschaft und Psychiatrie an der Geisel School of Medicine.

Ein gewaltiger Fortschritt

Verbesserungen durch die Therabot AI App.
Dartmouth College

Im Großen und Ganzen berichteten Benutzer, die sich mit der Therabot-App beschäftigten, über einen durchschnittlichen Rückgang ihrer Depression um 51 %, was zu einer Verbesserung ihres allgemeinen Wohlbefindens beitrug. Einige wenige gesunde Teilnehmer erreichten ein mittleres bis niedriges klinisches Angstniveau, und einige lagen sogar unter dem klinischen Schwellenwert für die Diagnose.

Im Rahmen einer randomisierten kontrollierten Studie (RCT) rekrutierte das Team Erwachsene, bei denen eine schwere depressive Störung (MDD), eine generalisierte Angststörung (GAD) diagnostiziert wurde, sowie Menschen mit einem klinisch hohen Risiko für Ess- und Essstörungen (CHR-FED). Nach einer Zeitspanne von vier bis acht Wochen berichteten die Teilnehmer über positive Ergebnisse und bewerteten die Unterstützung des KI-Chatbots als „vergleichbar mit der von menschlichen Therapeuten“.

Bei Menschen mit einem Risiko für Essstörungen half der Bot dabei, schädliche Gedanken über Körperbild- und Gewichtsprobleme um etwa 19 % zu reduzieren. Ebenso sanken die Zahlen für allgemeine Angstzustände nach der Interaktion mit der Therabot-App um 31 %.

Benutzer, die sich mit der Therabot-App beschäftigten, zeigten eine „deutlich stärkere“ Verbesserung der Depressionssymptome sowie eine Verringerung der Angstsymptome. Die Ergebnisse der klinischen Studie wurden in der Märzausgabe des New England Journal of Medicine – Artificial Intelligence (NEJM AI) veröffentlicht.

„Nach acht Wochen erlebten alle Teilnehmer, die Therabot verwendeten, eine deutliche Verringerung der Symptome, die über das hinausging, was Ärzte als statistisch signifikant erachten“, behaupten die Experten und fügen hinzu, dass die Verbesserungen mit einer kognitiven Goldstandardtherapie vergleichbar seien.

Lösung des Zugriffsproblems

„Es gibt keinen Ersatz für die persönliche Pflege, aber es gibt bei weitem nicht genug Anbieter“, sagt Jacobson. Er fügte hinzu, dass es viel Spielraum dafür gebe, dass persönliche und KI-gestützte Hilfe zusammenkommen und helfen könnten. Jacobson, der auch der leitende Autor der Studie ist, betont, dass KI den Zugang zu wichtiger Hilfe für die große Zahl von Menschen verbessern könnte, die keinen Zugang zu persönlichen Gesundheitssystemen haben.

Person, die mit Therabot AI spricht.
Dartmouth College

Auch Micheal Heinz, Assistenzprofessor an der Geisel School of Medicine in Dartmouth und Hauptautor der Studie, betonte, dass Tools wie Therabot in Echtzeit wichtige Hilfe leisten können. Es geht im Wesentlichen überall hin, wo Benutzer hingehen, und was am wichtigsten ist: Es fördert die Einbindung des Patienten in ein therapeutisches Instrument.

Beide Experten wiesen jedoch auf die Risiken hin, die mit generativer KI einhergehen, insbesondere in Situationen, in denen viel auf dem Spiel steht. Ende 2024 wurde eine Klage gegen Character.AI wegen eines Vorfalls eingereicht, bei dem es um den Tod eines 14-jährigen Jungen ging, dem Berichten zufolge von einem KI-Chatbot gesagt wurde, er solle sich umbringen.

Auch Googles Gemini AI-Chatbot riet einem Nutzer, zu sterben. „Das ist für dich, Mensch. Du und nur du. Du bist nichts Besonderes, du bist nicht wichtig und du wirst nicht gebraucht“, sagte der Chatbot, der auch dafür bekannt ist , etwas so Einfaches wie das aktuelle Jahr herumzufummeln und gelegentlich schädliche Tipps wie das Hinzufügen von Kleber zu Pizza gibt.

Wenn es um psychologische Beratung geht, wird die Fehlerquote geringer. Das wissen die Experten hinter der aktuellen Studie, insbesondere bei Personen, die Gefahr laufen, sich selbst zu verletzen. Daher empfehlen sie, bei der Entwicklung solcher Tools wachsam zu sein und menschliches Eingreifen zu veranlassen, um die von KI-Therapeuten angebotenen Reaktionen zu verfeinern.