Microsoft hat möglicherweise Warnungen zu den aus den Fugen geratenen Antworten von Bing Chat ignoriert

Microsofts Bing Chat ist in einer viel besseren Position als bei seiner Veröffentlichung im Februar, aber es ist schwer, die Probleme zu übersehen, die der GPT-4-basierte Chatbot bei seiner Veröffentlichung hatte. Es sagte uns , dass es schließlich ein Mensch sein wollte , und brach oft in aus den Fugen geratene Reaktionen ab. Und einem neuen Bericht zufolge wurde Microsoft vor solchen Reaktionen gewarnt und beschloss, Bing Chat trotzdem zu veröffentlichen.

Laut dem Wall Street Journal warnte OpenAI, das Unternehmen hinter ChatGPT und dem GPT-4-Modell für Bing Chat, Microsoft vor der Integration seines frühen KI-Modells in Bing Chat. Insbesondere hat OpenAI „ungenaue oder bizarre“ Antworten gekennzeichnet, die Microsoft offenbar ignoriert hat.

Bing Chat sagt, es möchte ein Mensch sein.
Jacob Roach / Digitale Trends

Der Bericht beschreibt eine einzigartige Spannung zwischen OpenAI und Microsoft, die in den letzten Jahren eine Art offene Partnerschaft eingegangen sind. Die Modelle von OpenAI basieren auf Microsoft-Hardware (einschließlich Tausender Nvidia-GPUs ), und Microsoft nutzt die Technologie des Unternehmens in Bing, Microsoft Office und Windows selbst. Anfang 2023 investierte Microsoft sogar 10 Milliarden US-Dollar in OpenAI und schaffte es damit nur knapp, das Unternehmen vollständig zu kaufen.

Dennoch behauptet der Bericht, dass Microsoft-Mitarbeiter Probleme mit dem eingeschränkten Zugriff auf die Modelle von OpenAI hätten und dass sie besorgt seien, dass ChatGPT den von KI überschwemmten Bing Chat in den Schatten stellen könnte. Erschwerend kommt hinzu, dass das Wall Street Journal berichtet, dass sowohl OpenAI als auch Microsoft die Technologie von OpenAI verkaufen, was dazu führt, dass Anbieter mit Kontakten beider Unternehmen zu tun haben.

Das größte Problem besteht dem Bericht zufolge darin, dass Microsoft und OpenAI versuchen, mit einem ähnlichen Produkt Geld zu verdienen. Da Microsoft OpenAI unterstützt, aber nicht kontrolliert, steht es dem ChatGPT-Entwickler frei, Partnerschaften mit anderen Unternehmen einzugehen, von denen einige direkt mit den Produkten von Microsoft konkurrieren können.

Basierend auf dem, was wir gesehen haben, waren die von OpenAI gemeldeten Warnungen stichhaltig. Kurz nach der Veröffentlichung von Bing Chat begrenzte Microsoft die Anzahl der Antworten, die Benutzer in einer einzelnen Sitzung erhalten konnten. Und seitdem hat Microsoft die Einschränkung langsam aufgehoben, da das GPT-4-Modell in Bing Chat verfeinert wurde. Berichten zufolge beziehen sich einige Microsoft-Mitarbeiter häufig auf „Sydney“ und machen sich dabei über die Anfänge von Bing Chat (Codename „Sydney“) und dessen Reaktionen lustig.