OpenAI zeigt eine „sehr gefährliche Mentalität“ in Bezug auf Sicherheit, warnt ein Experte

Ein KI-Experte hat OpenAI vorgeworfen, seine Geschichte neu zu schreiben und Sicherheitsbedenken übermäßig geringzuschätzen.

Der ehemalige OpenAI-Politikforscher Miles Brundage kritisierte das jüngste Sicherheits- und Ausrichtungsdokument des Unternehmens, das diese Woche veröffentlicht wurde. Das Dokument beschreibt, dass OpenAI in vielen kleinen Schritten nach künstlicher allgemeiner Intelligenz (AGI) strebt, anstatt „einen großen Sprung“ zu machen, und sagt, dass der Prozess der iterativen Bereitstellung es ihm ermöglichen wird, Sicherheitsprobleme zu erkennen und das Potenzial für den Missbrauch von KI in jeder Phase zu untersuchen.

Unter den zahlreichen Kritikpunkten an KI-Technologien wie ChatGPT befürchten Experten, dass Chatbots ungenaue Informationen zu Gesundheit und Sicherheit liefern (wie das berüchtigte Problem mit der KI-Suchfunktion von Google, die Menschen dazu aufforderte, Steine ​​zu essen) und dass sie für politische Manipulation, Fehlinformationen und Betrügereien missbraucht werden könnten. Vor allem OpenAI steht wegen mangelnder Transparenz bei der Entwicklung seiner KI-Modelle, die sensible personenbezogene Daten enthalten können, in der Kritik .

Die Veröffentlichung des OpenAI-Dokuments in dieser Woche scheint eine Reaktion auf diese Bedenken zu sein, und das Dokument impliziert, dass die Entwicklung des vorherigen GPT-2-Modells „diskontinuierlich“ verlief und dass es ursprünglich aufgrund „Bedenken hinsichtlich bösartiger Anwendungen⁠“ nicht veröffentlicht wurde, nun wird das Unternehmen jedoch stattdessen auf das Prinzip der iterativen Entwicklung umsteigen. Aber Brundage behauptet, dass das Dokument die Erzählung verändere und keine genaue Darstellung der Geschichte der KI-Entwicklung bei OpenAI sei.

„Die Veröffentlichung von GPT-2 durch OpenAI, an der ich beteiligt war, war zu 100 % konsistent und war ein Vorgeschmack auf OpenAIs aktuelle Philosophie der iterativen Bereitstellung“, schrieb Brundage auf X. „Das Modell wurde schrittweise veröffentlicht, wobei bei jedem Schritt Erkenntnisse ausgetauscht wurden. Viele Sicherheitsexperten dankten uns damals für diese Vorsicht.“

Brundage kritisierte auch den offensichtlichen Risikoansatz des Unternehmens auf der Grundlage dieses Dokuments und schrieb: „Es fühlt sich an, als ob in diesem Abschnitt eine Beweislast festgelegt wird, in der Bedenken alarmierend sind + man überwältigende Beweise für drohende Gefahren braucht, um darauf zu reagieren – andernfalls fahren Sie einfach mit dem Versand fort.“ Das ist eine sehr gefährliche Mentalität für fortschrittliche KI-Systeme.“

Dies geschieht zu einer Zeit, in der OpenAI zunehmend unter die Lupe genommen wird, da ihm vorgeworfen wird, dass es „glänzenden Produkten“ Vorrang vor der Sicherheit einräumt.