Der heißeste neue ChatGPT-Trend ist beunruhigend morbide

Der Aufstieg der KI hat uns zu großen Fortschritten verholfen. Von der Unterstützung der Arzneimittelforschung bis hin zur Krebserkennung – die durch KI ermöglichten Fortschritte sind bemerkenswert. Gleichzeitig sind selbst die beliebtesten KI-Tools, wie ChatGPT, auf erstaunliche Weise durcheinander geraten.

In den letzten Jahren wurde detailliert berichtet, wie ChatGPT eine Person in einem Mordfall aufklärte , sie des Mordes an ihren Kindern beschuldigte und sie in eine Spirale der Verschwörungstheorien trieb . Es scheint, als wäre ChatGPT der nächste große Trend, um Nachrufe für geliebte Menschen zu verfassen. Oder sogar, um auf der enormen Nachfrage ein eigenes Unternehmen aufzubauen.

ChatGPT, für die Toten unter uns

Laut einem Bericht der Washington Post verwenden Bestattungsunternehmen ChatGPT, um „ständig Todesanzeigen zu verfassen, ohne ihren Kunden davon zu erzählen“. Natürlich müssen sie dabei sehr vorsichtig vorgehen, sonst werden die Todesanzeigen durch ChatGPT zu unrealistischen Berichten darüber, wie eine Person im Kreise ihrer Lieben gestorben ist oder friedlich die sterbliche Welt verlassen hat.

„Wir wissen nicht, ob es ein friedlicher Tod war, obwohl wir uns das gerne vorstellen würden“, wurde ein anonymer Mitarbeiter eines Bestattungsunternehmens zitiert. Doch nicht nur Bestattungsunternehmen und einige geschäftstüchtige Tech-Gründer nutzen KI zum Verfassen von Todesanzeigen und verlangen dafür Geld. Auch normale Menschen nutzen sie und scheinen damit recht zufrieden zu sein.

Eine Einwohnerin Nevadas, die ChatGPT nutzte, um den Nachruf ihrer Mutter zu verfassen, sagte der Zeitung, dass sie „mit dem Endergebnis sehr zufrieden wäre“. Für die Zukunft hat sie sogar noch ehrgeizigere Pläne, wenn sie möglicherweise einen Nachruf für ihren Vater verfassen muss.

„Diesmal werde ich den Deep-Research-Modus verwenden. Das wird ein Knaller“, wurde der Reporter von der Post zitiert. Einige Leute, die mit dem Reporter sprachen, argumentierten, dass es in Momenten tiefer Trauer nicht einfach sei, seine Gefühle auszudrücken, und dass KI-Tools wie ChatGPT das Schreiben eines Nachrufs erleichtert hätten.

Im Tod und im Geschäft ist alles erlaubt

Interessanterweise scheint der Einsatz von KI-Tools wie ChatGPT nicht nur eine persönliche Entscheidung oder ein schlauer Schachzug einiger Bestattungsunternehmen zu sein. Es ist ein boomendes Geschäft, und es gibt mehrere Unternehmen, die „KI für Nachrufe“-Dienste anbieten – gegen Bezahlung.

Eines dieser Unternehmen ist CelebrateAlly, gegründet von einem ehemaligen Microsoft-Mitarbeiter. Es verlangt von seinen Kunden 5 Dollar für 100 Credits. Ein Nachruf kostet in der Regel 10 Credits, was bedeutet, dass Sie für nur 50 Cent pro Credit eine neue Trauerrede zu Ehren Ihres verstorbenen Angehörigen schreiben können.

Das Unternehmen bietet seinen Nutzern sogar die Möglichkeit, zwischen ChatGPT und dem KI-Modell Claude von Anthropic zu wählen, um den Ton oder Inhalt des Nachrufs zu ändern. Die zugrunde liegende Technologie ist jedoch nicht fehlerfrei, und wenn sie ignoriert wird, kann sie zu bizarren Szenarien führen. Hier ein Auszug aus dem Bericht:

Das KI-Tool erhielt den Auftrag, einen „spielerischen“ Nachruf auf eine temperamentvolle, witzige und gläubige Person zu verfassen. Es behauptete, der Mann sei „an einem kalten Tag geboren“, habe „nach den Worten des großen Groucho Marx gelebt“, „alle inspiriert“ und sei in einer „sonnigen Umarmung“ gestorben – obwohl ihm keine dieser Informationen gegeben worden waren. In weiteren Anweisungen erfand es falsche Spitznamen, Vorlieben und Lebensereignisse und erklärte sogar, der Mann habe ein Gemeinschaftstheater gegründet und einen „jungen Komiker … betreut, der anschließend landesweit auf Tournee ging“.

ChatGPT ist nicht das einzige Tool, das Dinge erfindet . Googles KI Gemini forderte eine Person auf, Klebstoff auf ihre Pizza zu geben . Auch die KI von Microsoft ist da keine Ausnahme . Aktuelle Forschungsergebnisse belegen, dass eine zu starke Abhängigkeit von KI-Tools zu kognitivem Abbau führt und echte Forschung behindert . Einige Experten befürchten zudem tiefgreifende psychologische und moralische Probleme.

KI-Begleit-Apps wie Character AI und Nomi haben eine Nutzergruppe hervorgebracht, die von ihren KI-generierten Partnern besessen ist – auf Kosten echter menschlicher Verbindungen. Manche schwängern ihre KI-Partner sogar und vertiefen sich tief in ihre eigene digitale Realität, während sie den KI-Unternehmen, die hinter der Software stehen, Hunderte von Dollar zahlen.