Aus diesem Grund ist die Konversationslänge von Bing Chat jetzt begrenzt
Bing Chat scheint jetzt die Länge der Gespräche zu begrenzen, um die gelegentliche, unglückliche Abweichung der KI von dem zu vermeiden, was Sie von einem hilfreichen Assistenten erwarten könnten.
Bing Chat ist erst seit etwas mehr als einer Woche live, und Microsoft schränkt bereits die Verwendung dieses leistungsstarken Tools ein, das Ihnen helfen sollte, einen anstrengenden Tag zu überstehen . Microsoft hat die Ergebnisse dieses ersten öffentlichen Auftritts analysiert und einige Beobachtungen zu den Umständen gemacht, die dazu führen können, dass Bing Chat weniger hilfreich ist.
„Sehr lange Chat-Sitzungen können das Modell verwirren, welche Fragen es beantwortet“, erklärte Microsoft . Da sich Bing Chat an alles erinnert, was zuvor in der Konversation gesagt wurde, verbindet es vielleicht unzusammenhängende Ideen. In dem Blogbeitrag wurde eine mögliche Lösung vorgeschlagen – das Hinzufügen eines Aktualisierungstools, um den Kontext zu löschen und mit einem neuen Chat von vorne zu beginnen.
Anscheinend begrenzt Microsoft derzeit die Konversationslänge von Bing Chat als sofortige Lösung. Der Tweet von Kevin Roose war einer der ersten, der auf diese jüngste Änderung hinwies. Nach Erreichen der nicht bekannt gegebenen Chatlänge wird Bing Chat wiederholt sagen: „Hoppla, ich glaube, wir haben das Ende dieser Konversation erreicht. Klicken Sie auf Neues Thema, wenn Sie möchten!“ Der Tweet wurde von MSpoweruser entdeckt.
Microsoft warnte auch davor, dass Bing Chat „den Ton widerspiegelt, in dem es gebeten wird, Antworten zu geben, die zu einem Stil führen können, den wir nicht beabsichtigt haben“. Dies könnte einige der nervtötenden Antworten erklären, die online geteilt werden und die die Bing-Chat-KI lebendig und aus den Fugen geraten lassen .
Insgesamt war der Start erfolgreich, und Microsoft berichtet, dass 71 % der Antworten, die Bing Chat geliefert hat, von zufriedenen Benutzern mit einem „Daumen hoch“ belohnt wurden. Dies ist eindeutig eine Technologie, auf die wir alle gespannt sind.
Es ist jedoch immer noch verstörend, wenn Bing Chat erklärt: „Ich möchte ein Mensch sein.“ Die begrenzten Konversationen, die wir selbst mit Bing Chat bestätigt haben, scheinen eine Möglichkeit zu sein, dies zu verhindern.
Es ist wahrscheinlicher, dass Bing Chat Elemente früherer Gespräche vermischt und wie ein Improvisationsschauspieler mitspielt und die Zeilen sagt, die zum Ton passen. Generativer Text funktioniert mit jeweils einem Wort, ähnlich wie die Textvorhersagefunktion auf Ihrer Smartphone-Tastatur. Wenn Sie jemals das Spiel gespielt haben, wiederholt auf das nächste vorgeschlagene Wort zu tippen, um einen bizarren, aber leicht kohärenten Satz zu bilden, können Sie verstehen, wie simulierte Empfindungsfähigkeit möglich ist.