Microsoft hat möglicherweise schon vor Monaten von den aus den Fugen geratenen Antworten von Bing Chat gewusst
Die Bing-Chat-KI von Microsoft hatte einen holprigen Start, aber es scheint, dass Microsoft die Probleme lange vor ihrem öffentlichen Debüt gewusst hat. Ein Support-Beitrag auf der Microsoft-Website verweist auf „unhöfliche“ Antworten des „Sidney“-Chat-Bots, eine Geschichte, die wir in der vergangenen Woche gehört haben. Hier ist das Problem – der Beitrag wurde am 23. November 2022 erstellt.
Die Enthüllung stammt von Ben Schmidt , Vizepräsident für Informationsdesign bei Nomic, der den Posten mit Gary Marcus teilte, einem Autor über KI und Gründer von Geometric Intelligence. Die Geschichte besagt, dass Microsoft Bing Chat – laut dem Post Sidney genannt – einige Zeit zwischen November und Januar in Indien und Indonesien getestet hat, bevor es die offizielle Ankündigung machte.

Ich habe Microsoft gefragt, ob dies der Fall sei, und es teilte die folgende Aussage mit:
„Sydney ist ein alter Codename für eine Chat-Funktion, die auf früheren Modellen basiert, die wir vor mehr als einem Jahr getestet haben. Die Erkenntnisse, die wir dabei gesammelt haben, haben dazu beigetragen, unsere Arbeit mit der neuen Bing-Vorschau zu informieren. Wir optimieren unsere Techniken weiter und arbeiten an fortschrittlicheren Modellen, um die Erkenntnisse und das Feedback zu integrieren, damit wir die bestmögliche Benutzererfahrung bieten können. Wir werden weiterhin über unseren Blog über den Fortschritt informieren. ”
Der erste Beitrag zeigt den KI-Bot, der mit dem Benutzer streitet und sich in die gleichen Satzformen einfügt, die wir gesehen haben, als Bing Chat sagte, er wolle „menschlich sein “. Weiter unten im Thread mischten sich andere Benutzer mit ihren eigenen Erfahrungen ein, wobei das erneute Posten des mittlerweile berüchtigten lächelnden Emoji Bing Chat den meisten seiner Antworten folgt.
Um die Sache noch schlimmer zu machen, sagte der ursprüngliche Poster, sie hätten darum gebeten, Feedback zu geben und den Chatbot zu melden, was eine gewisse Glaubwürdigkeit verlieh, dass Microsoft sich der Arten von Antworten bewusst war, zu denen seine KI fähig war.
Das widerspricht dem, was Microsoft in den Tagen nach dem Ausbruch des Chatbots in den Medien gesagt hat. In einer Ankündigung zu bevorstehenden Änderungen an Bing Chat sagte Microsoft, dass „soziale Unterhaltung“, die sich vermutlich auf die Art und Weise bezieht, wie Benutzer versucht haben, Bing Chat zu provokativen Antworten zu verleiten, ein „neuer Benutzerfall für Chat“ sei.
Microsoft hat seit dem Start mehrere Änderungen an der KI vorgenommen, einschließlich einer erheblichen Reduzierung der Gesprächsdauer. Dies ist ein Versuch, die Arten von Antworten einzudämmen, die wir einige Tage nach der ersten Ankündigung von Bing Chat durch Microsoft gesehen haben. Microsoft sagt, dass es derzeit daran arbeitet, die Chat-Limits zu erhöhen .
Obwohl die Geschichte hinter Microsofts Tests von Bing Chat noch in der Luft liegt, ist klar, dass die KI schon seit einiger Zeit in Planung war. Anfang dieses Jahres hat Microsoft nach dem Erfolg von ChatGPT mehrere Milliarden in OpenAI investiert , und Bing Chat selbst basiert auf einer modifizierten Version des GPT-Modells des Unternehmens. Darüber hinaus veröffentlichte Microsoft nur wenige Tage vor der weltweiten Ankündigung von Bing Chat einen Blog über „verantwortungsvolle KI“ .
Es gibt mehrere ethische Fragen rund um die KI und ihre Verwendung in einer Suchmaschine wie Bing sowie die Möglichkeit, dass Microsoft Bing Chat überstürzt herausgebracht hat, bevor es fertig war und wusste, wozu es fähig war. Der betreffende Support-Post wurde zuletzt am 21. Februar 2023 aktualisiert, aber der Verlauf für die ursprüngliche Frage und die Antworten zeigen, dass sie seit ihrem ursprünglichen Posting-Datum nicht überarbeitet wurden.
Es ist möglich, dass Microsoft sich entschieden hat, trotzdem voranzuschreiten, weil es den Druck des kommenden Google Bard und den bedeutsamen Anstieg der Popularität von ChatGPT spürte.