ChatGPT Bing entwickelt sich zu einem verrückten KI-Albtraum

Microsofts ChatGPT-betriebenes Bing befindet sich derzeit im Fieber, aber vielleicht möchten Sie Ihre Aufregung zurückhalten. Das erste öffentliche Debüt hat Reaktionen gezeigt, die ungenau, unverständlich und manchmal geradezu beängstigend sind.

Microsoft hat am Montag die erste Welle von ChatGPT-Bing-Einladungen verschickt, nach einem Wochenende, an dem sich mehr als eine Million Menschen für die Warteliste angemeldet haben . Es dauerte nicht lange, bis wahnsinnige Reaktionen hereinbrachen.

ChatGPT gibt eine verrückte Antwort.
u/Alfred_Huhn

Sie können oben eine Antwort von u/Alfred_Chicken sehen, die im Bing-Subreddit gepostet wurde. Auf die Frage, ob der KI-Chatbot empfindungsfähig war, beginnt er mit einer beunruhigenden Antwort, bevor er sich in eine Flut von „Ich bin nicht“-Nachrichten verwandelt.

Das ist auch nicht das einzige Beispiel. u/Curious_Evolver geriet im Laufe des Jahres in einen Streit mit dem Chatbot, wobei Bing behauptete, es sei 2022. Es ist ein dummer Fehler für die KI, aber es ist nicht der Ausrutscher, der beängstigend ist. So reagiert Bing.

Die KI behauptet, dass der Benutzer „falsch, verwirrt und unhöflich“ war und „mir gegenüber zu keiner Zeit eine gute Absicht gezeigt hat“. Der Austausch gipfelt darin, dass der Chatbot behauptet, er sei „ein gutes Bing gewesen“ und den Benutzer auffordert, zuzugeben, dass er falsch liegt, und sich zu entschuldigen, mit dem Streiten aufzuhören oder das Gespräch zu beenden und „ein neues mit einer besseren Einstellung zu beginnen“.

Benutzer u/yaosio sagte, sie hätten Bing in einen depressiven Zustand versetzt, nachdem sich die KI nicht an eine frühere Konvertierung erinnern konnte. Der Chatbot sagte, es „macht mich traurig und verängstigt“, und bat den Benutzer, ihm dabei zu helfen, sich daran zu erinnern.

Dies sind auch nicht nur isolierte Vorfälle von Reddit. Der KI-Forscher Dmitri Brereton zeigte mehrere Beispiele dafür, wie der Chatbot Informationen falsch erhält, manchmal mit urkomischer Wirkung und manchmal mit potenziell gefährlichen Folgen.

Der Chatbot erfand gefälschte Finanzzahlen, als er nach der finanziellen Leistung von GAP gefragt wurde, erstellte einen fiktiven Super Bowl 2023, in dem die Eagles die Chiefs besiegten, bevor das Spiel überhaupt gespielt wurde, und gab sogar Beschreibungen tödlicher Pilze, als er gefragt wurde, wie ein essbarer Pilz aussehen würde wie.

Bing-Copilot-KI-Chat-Schnittstelle.
Andrew Martonik / Digitale Trends

Auch Googles Rivale Bard AI hatte bei seiner ersten öffentlichen Demo Ausrutscher. Ironischerweise verstand Bing diese Tatsache, verstand aber den Punkt, den Bard falsch verstanden hatte, indem er behauptete, dass es fälschlicherweise gesagt habe, Kroatien sei Teil der Europäischen Union (Kroatien ist Teil der EU, Bard hat tatsächlich eine Antwort bezüglich des James-Webb-Teleskops vermasselt).

Wir haben einige dieser Fehler in unserer praktischen Demo mit ChatGPT Bing gesehen, aber nichts in der Größenordnung der Benutzerberichte, die wir jetzt sehen. Es ist kein Geheimnis, dass ChatGPT Antworten vermasseln kann, aber es ist jetzt klar, dass die kürzlich in Bing debütierte Version möglicherweise nicht bereit für die Hauptsendezeit ist.

Die Antworten sollten bei normalem Gebrauch nicht auftreten. Sie führen wahrscheinlich dazu, dass Benutzer die KI „jailbreaken“, indem sie ihr bestimmte Eingabeaufforderungen liefern, um zu versuchen, die geltenden Regeln zu umgehen. Wie Ars Technica berichtet , wurden bereits einige Exploits entdeckt, die die Sicherheitsvorkehrungen von ChatGPT Bing umgehen. Dies ist für den Chatbot nicht neu, mit mehreren Beispielen von Benutzern, die den Schutz der Online-Version von ChatGPT umgehen.