Tech-Leader fordern eine Unterbrechung der Entwicklung von GPT-4.5 und GPT-5 aufgrund „großer Risiken“

Die generative KI hat sich in den letzten Monaten mit der Einführung verschiedener Tools und Bots wie ChatGPT von OpenAI , Google Bard und mehr mit unglaublicher Geschwindigkeit entwickelt. Doch diese rasante Entwicklung bereitet erfahrenen Veteranen im KI-Bereich ernsthafte Sorgen – so sehr, dass über 1.000 von ihnen einen offenen Brief unterzeichnet haben, in dem KI-Entwickler aufgefordert werden, auf die Bremse zu treten.

Der Brief wurde auf der Website des Future of Life Institute veröffentlicht, einer Organisation, deren erklärte Mission darin besteht, „transformative Technologie zum Nutzen des Lebens und weg von extrem großen Risiken zu lenken“. Unter den Unterzeichnern sind mehrere prominente Akademiker und Technologieführer, darunter Apple-Mitbegründer Steve Wozniak, Twitter-CEO Elon Musk und der Politiker Andrew Yang.

Der Artikel fordert alle Unternehmen auf, die an KI-Modellen arbeiten, die leistungsfähiger sind als das kürzlich veröffentlichte GPT-4 , die Arbeit sofort für mindestens sechs Monate einzustellen. Dieses Moratorium sollte „öffentlich und überprüfbar“ sein und würde Zeit lassen, „gemeinsam eine Reihe gemeinsamer Sicherheitsprotokolle für fortschrittliches KI-Design und -Entwicklung zu entwickeln und umzusetzen, die von unabhängigen externen Experten streng geprüft und überwacht werden“.

In dem Brief heißt es, dies sei notwendig, weil „KI-Systeme mit menschlicher Wettbewerbsintelligenz tiefgreifende Risiken für die Gesellschaft und die Menschheit darstellen können“. Zu diesen Risiken gehören die Verbreitung von Propaganda, die Zerstörung von Arbeitsplätzen, die potenzielle Ersetzung und Veralterung menschlichen Lebens und der „Verlust der Kontrolle über unsere Zivilisation“. Die Autoren fügen hinzu, dass die Entscheidung, ob man in diese Zukunft vordringen soll, nicht „nicht gewählten Technologieführern“ überlassen werden sollte.

KI „zum klaren Nutzen aller“

ChatGPT gegen Google auf Smartphones.

Der Brief kommt kurz nachdem behauptet wurde, dass GPT-5, die nächste Version der Technologie, die ChatGPT antreibt, künstliche allgemeine Intelligenz erreichen könnte . Wenn es richtig ist, bedeutet das, dass es in der Lage wäre, alles zu verstehen und zu lernen, was ein Mensch begreifen kann. Das könnte es auf eine Weise unglaublich mächtig machen, die noch nicht vollständig erforscht wurde.

Darüber hinaus behauptet der Brief, dass eine verantwortungsvolle Planung und Verwaltung rund um die Entwicklung von KI-Systemen nicht stattfindet, „obwohl die KI-Labore in den letzten Monaten in einen außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe verwickelt waren, die keine Rolle spielen man – nicht einmal ihre Schöpfer – verstehen, vorhersagen oder zuverlässig kontrollieren kann.“

Stattdessen behauptet der Brief, dass neue Governance-Systeme geschaffen werden müssen, die die KI-Entwicklung regulieren, den Menschen helfen, KI-erstellte und von Menschen erstellte Inhalte zu unterscheiden, KI-Labore wie OpenAI für alle von ihnen verursachten Schäden verantwortlich zu machen und es der Gesellschaft ermöglichen, mit KI-Störungen fertig zu werden ( besonders zur Demokratie) und mehr.

Die Autoren enden positiv und behaupten, dass „die Menschheit mit KI eine blühende Zukunft genießen kann … in der wir die Früchte ernten, diese Systeme zum klaren Nutzen aller entwickeln und der Gesellschaft die Möglichkeit geben, sich anzupassen.“ Das Drücken einer Pause auf KI-Systemen, die leistungsfähiger als GPT-4 sind, würde dies ermöglichen, heißt es.

Wird der Brief seine beabsichtigte Wirkung haben? Das ist schwer zu sagen. Es gibt eindeutig Anreize für OpenAI, weiterhin an fortschrittlichen Modellen zu arbeiten, sowohl finanziell als auch im Hinblick auf die Reputation. Aber bei so vielen potenziellen Risiken – und mit sehr wenig Verständnis dafür – sind die Autoren des Briefes eindeutig der Meinung, dass diese Anreize zu gefährlich sind, um sie zu verfolgen.