OpenAI wird kritisiert, weil es sich gegen ein vorgeschlagenes Gesetz zur KI-Sicherheit ausspricht
Die ehemaligen OpenAI-Mitarbeiter William Saunders und Daniel Kokotajlo haben einen Brief an den kalifornischen Gouverneur Gavin Newsom geschrieben und argumentiert, dass der Widerstand des Unternehmens gegen einen staatlichen Gesetzentwurf, der strenge Sicherheitsrichtlinien und -protokolle für die zukünftige KI-Entwicklung vorschreiben würde, enttäuschend, aber nicht überraschend sei.
„Wir sind OpenAI beigetreten, weil wir die Sicherheit der unglaublich leistungsstarken KI-Systeme gewährleisten wollten, die das Unternehmen entwickelt“, schrieben Saunders und Kokotajlo. „Aber wir sind von OpenAI zurückgetreten, weil wir das Vertrauen verloren haben, dass das Unternehmen seine KI-Systeme sicher, ehrlich und verantwortungsbewusst entwickeln würde.“
Die beiden argumentieren, dass eine weitere Entwicklung ohne ausreichende Leitplanken „vorhersehbare Risiken katastrophalen Schadens für die Öffentlichkeit birgt“, sei es „beispiellose Cyberangriffe oder die Unterstützung bei der Entwicklung biologischer Waffen“.
Das Duo wies auch schnell auf die Heuchelei von OpenAI-CEO Sam Altman in Sachen Regulierung hin. Sie verweisen auf seine jüngste Aussage vor dem Kongress, in der er eine Regulierung der KI-Industrie forderte, stellen jedoch fest: „Wenn tatsächliche Regulierung auf dem Tisch liegt, ist er dagegen.“
Laut einer Umfrage der MITRE Corporation und der Harris Poll aus dem Jahr 2023 glaubten nur 39 % der Befragten, dass die heutige KI-Technologie „sicher“ sei.
Der fragliche Gesetzentwurf SB-1047, der Safe and Secure Innovation for Frontier Artificial Models Act, würde „unter anderem verlangen, dass ein Entwickler, bevor er mit der ersten Schulung eines abgedeckten Modells beginnt … verschiedene Anforderungen erfüllt, einschließlich der Implementierung der Fähigkeit.“ um umgehend eine vollständige Abschaltung zu veranlassen … und ein schriftliches und separates Sicherheitsprotokoll zu implementieren.“ OpenAI erlitt in den letzten Jahren mehrere Datenlecks und Systemeinbrüche .
Berichten zufolge widerspricht OpenAI entschieden der „falschen Darstellung unserer Position zu SB 1047“ durch die Forscher, wie ein Sprecher gegenüber Business Insider sagte. Das Unternehmen argumentiert stattdessen, dass „ein bundesweit vorangetriebener Satz von KI-Richtlinien und nicht ein Flickenteppich staatlicher Gesetze Innovationen fördern und die USA in die Lage versetzen wird, die Entwicklung globaler Standards anzuführen“, sagte Jason Kwon, Chief Strategy Officer von OpenAI, in einem Brief an Der kalifornische Senator Scott Wiener im Februar.
Saunders und Kokotajlo entgegnen, dass OpenAIs Vorstoß für Bundesvorschriften nicht in gutem Glauben erfolgt. „Wir können es kaum erwarten, dass der Kongress handelt – er hat ausdrücklich erklärt, dass er nicht bereit ist, eine sinnvolle KI-Regulierung zu verabschieden“, schrieben die beiden. „Wenn sie es jemals tun, kann es der CA-Gesetzgebung zuvorkommen.“
Der Gesetzentwurf hat auch von einer überraschenden Quelle Unterstützung gefunden: Elon Musk, CEO von xAI. „Das ist eine harte Entscheidung und wird einige Leute verärgern, aber alles in allem denke ich, dass Kalifornien wahrscheinlich das KI-Sicherheitsgesetz SB 1047 verabschieden sollte“, schrieb er am Montag auf X. „Seit über 20 Jahren setze ich mich für die KI-Regulierung ein, so wie wir jedes Produkt/jede Technologie regulieren, die ein potenzielles Risiko darstellt.“ Musk, der kürzlich den Bau des „leistungsfähigsten KI-Trainingsclusters der Welt“ in Memphis, Tennessee, ankündigte , hatte zuvor damit gedroht, die Hauptsitze seiner Unternehmen X (ehemals Twitter) und SpaceX nach Texas zu verlegen, um der Branchenregulierung in Kalifornien zu entgehen.
Update: Dieser Beitrag wurde aktualisiert und enthält nun die Kommentare von Elon Musk.