Googles ChatGPT-Rivale ist ein ethisches Durcheinander, sagen Googles eigene Mitarbeiter

Google startete Bard , seinen ChatGPT-Rivalen, trotz interner Bedenken, dass es ein „pathologischer Lügner“ sei und „unwürdige“ Ergebnisse produziert habe, heißt es in einem neuen Bericht. Arbeiter sagen, dass diese Bedenken offenbar bei einem hektischen Versuch ignoriert wurden , ChatGPT einzuholen und die Bedrohung abzuwehren, die es für das Suchgeschäft von Google darstellen könnte.

Die Enthüllungen stammen aus einem Bloomberg-Bericht , der sich eingehend mit Google Bard und den Problemen befasste, die von Mitarbeitern angesprochen wurden, die an dem Projekt gearbeitet haben. Es ist ein aufschlussreicher Bericht über die Art und Weise, wie der Chatbot anscheinend aus den Fugen geraten ist, und die Bedenken, die diese Vorfälle bei besorgten Arbeitern geweckt haben.

ChatGPT gegen Google auf Smartphones.

Bloomberg zitiert zum Beispiel einen anonymen Mitarbeiter, der Bard um Anweisungen für die Landung eines Flugzeugs bat und dann entsetzt war, als er sah, dass Bards Beschreibung zu einem Absturz führen würde. Ein anderer Arbeiter sagte, dass Bards Tauchtipps „wahrscheinlich zu schweren Verletzungen oder zum Tod führen würden“.

Diese Probleme wurden anscheinend kurz vor dem Start von Bard aufgeworfen, Google drängte jedoch auf das Go-Live-Datum, so sehr war sein Wunsch, mit dem von ChatGPT eingeschlagenen Weg Schritt zu halten. Aber es hat dies getan, während es seine eigenen ethischen Verpflichtungen missachtet hat, was nicht nur zu gefährlichen Ratschlägen, sondern auch zur potenziellen Verbreitung von Fehlinformationen geführt hat.

Vorauseilend zum Start

Der KI-Chatbot Google Bard in einem Webbrowser, der auf dem Bildschirm eines Android-Smartphones angezeigt wird.
Mojahid Mottakin / Unsplash

Im Jahr 2021 versprach Google, sein Mitarbeiterteam zu verdoppeln, das die ethischen Folgen der künstlichen Intelligenz (KI) untersucht, und stärker in die Ermittlung potenzieller Schäden zu investieren. Doch dieses Team ist jetzt „entmachtet und demoralisiert“, behauptet der Bloomberg-Bericht. Schlimmer noch, den Teammitgliedern wurde gesagt, dass sie „sich nicht in die Quere kommen oder versuchen sollen, eines der generativen KI-Tools in der Entwicklung zu zerstören“, was Googles Engagement für die KI-Ethik in Frage stellt.

Das wurde kurz vor dem Start von Bard in Aktion gesehen. Im Februar schrieb ein Google-Mitarbeiter einer internen Gruppe: „Bard ist schlimmer als nutzlos: Bitte starten Sie nicht“, und zahlreiche andere Mitarbeiter stimmten zu. Im nächsten Monat setzte Jen Gennai, Googles KI-Governance-Leiterin, eine Risikobewertung außer Kraft, die besagte, dass Bard Schaden anrichten könnte und nicht bereit für den Start sei, und trieb die erste öffentliche Veröffentlichung des Chatbots voran.

Der Bericht von Bloomberg zeichnet das Bild eines Unternehmens, das ethischen Bedenken misstraut, die seiner Meinung nach der Rentabilität seiner eigenen Produkte im Wege stehen könnten. Beispielsweise bat ein Mitarbeiter darum, an Fairness beim maschinellen Lernen zu arbeiten, wurde jedoch wiederholt entmutigt, bis zu dem Punkt, an dem sich dies auf seine Leistungsbeurteilung auswirkte. Manager beklagten, dass ethische Bedenken ihre „eigentliche Arbeit“ behindern, so der Mitarbeiter.

Dies ist eine besorgniserregende Haltung, zumal wir bereits viele Beispiele für Fehlverhalten von KI-Chatbots gesehen haben, die beleidigende, irreführende oder völlig falsche Informationen hervorgebracht haben. Wenn der Bloomberg-Bericht mit Googles scheinbar feindseligem Umgang mit ethischen Bedenken richtig liegt, könnte dies nur der Anfang sein, wenn es um Probleme geht, die durch KI verursacht werden.