Microsoft hat eine neue Möglichkeit, ChatGPT ethisch zu halten, aber wird es funktionieren?

Microsoft hat viel Kritik einstecken müssen, als es im März 2023 sein Ethik- und Gesellschaftsteam für künstliche Intelligenz (KI) geschlossen hat. Angesichts der fast gleichzeitigen Skandale, die die KI verschlingen, war das kein guter Anblick, aber das Unternehmen hat gerade dargelegt, wie es beabsichtigt um seine zukünftigen Bemühungen verantwortungsbewusst und unter Kontrolle zu halten.

In einem Beitrag im Microsoft- Blog „On the Issues“ erklärte Natasha Crampton – Chief Responsible AI Officer der Firma Redmond –, dass das Ethik-Team aufgelöst wurde, weil „ein einzelnes Team oder eine einzelne Disziplin, die mit verantwortungsbewusster oder ethischer KI beauftragt ist, unsere Ziele nicht erreichen würde .“

Bing-Chat auf einem Laptop.

Stattdessen hat Microsoft den Ansatz übernommen, den es mit seinen Datenschutz-, Sicherheits- und Zugänglichkeitsteams verfolgt hat, und „verantwortungsbewusste KI im gesamten Unternehmen eingebettet“. In der Praxis bedeutet dies, dass Microsoft über leitende Mitarbeiter verfügt, „die die Aufgabe haben, verantwortungsbewusste KI in jeder Kerngeschäftsgruppe anzuführen“, sowie „ein großes Netzwerk verantwortungsbewusster KI-„Champions“ mit einer Reihe von Fähigkeiten und Rollen für ein regelmäßigeres, direktes Engagement“.

Darüber hinaus sagte Crampton, Microsoft habe „fast 350 Mitarbeiter, die an verantwortungsbewusster KI arbeiten, von denen etwas mehr als ein Drittel (129, um genau zu sein) sich in Vollzeit damit beschäftigen; der Rest hat verantwortungsvolle KI-Aufgaben als Kernbestandteil ihrer Arbeit.“

Nachdem Microsoft sein Ethik- und Gesellschaftsteam geschlossen hatte, stellte Crampton fest, dass einige Teammitglieder anschließend in Teams im gesamten Unternehmen integriert wurden. Sieben Mitglieder der Gruppe wurden jedoch im Rahmen des umfassenden Stellenabbaus von Microsoft entlassen, bei dem Anfang 2023 10.000 Mitarbeiter entlassen wurden.

Navigieren durch die Skandale

Bing Chat sagt, es möchte menschlich sein.

KI war in den letzten Monaten kaum frei von Skandalen , und es sind diese Sorgen, die die Gegenreaktion auf Microsofts Auflösung seines KI-Ethikteams angeheizt haben. Wenn Microsoft kein engagiertes Team hätte, um seine KI-Produkte in verantwortungsvolle Richtungen zu lenken, so die Überlegung, würde es Schwierigkeiten haben, die Arten von Missbrauch und fragwürdigem Verhalten einzudämmen, für die sein Bing-Chatbot berüchtigt geworden ist.

Der neueste Blogbeitrag des Unternehmens zielt sicherlich darauf ab, diese Bedenken in der Öffentlichkeit zu zerstreuen. Anstatt seine KI-Bemühungen vollständig aufzugeben, scheint Microsoft zu versuchen, sicherzustellen, dass Teams im gesamten Unternehmen regelmäßigen Kontakt mit Experten für verantwortungsbewusste KI haben.

Dennoch besteht kein Zweifel, dass die Schließung des AI Ethics & Society-Teams nicht gut ankam, und es besteht die Möglichkeit, dass Microsoft noch einiges zu tun hat, um die kollektive Meinung der Öffentlichkeit zu diesem Thema zu beruhigen. Tatsächlich ist sogar Microsoft selbst der Meinung, dass ChatGPT – dessen Entwickler OpenAI im Besitz von Microsoft ist – reguliert werden sollte .

Erst gestern hat Geoffrey Hinton – der „Pate der KI“ – Google verlassen und der New York Times mitgeteilt, er habe ernsthafte Bedenken hinsichtlich des Tempos und der Richtung der KI-Expansion, während eine Gruppe führender Technologieexperten kürzlich einen offenen Brief unterzeichnete, in dem eine Pause gefordert wurde KI-Entwicklung , damit ihre Risiken besser verstanden werden können.

Microsoft mag Bedenken hinsichtlich einer ethischen KI-Entwicklung nicht außer Acht lassen, aber ob sein neuer Ansatz der richtige ist oder nicht, bleibt abzuwarten. Nach dem umstrittenen Start von Bing Chat hoffen Natasha Crampton und ihre Kollegen, dass sich die Dinge zum Besseren wenden.