OpenAI baut neues Team auf, um zu verhindern, dass superintelligente KI abtrünnig wird

Wenn die Personen, die an der Spitze der Technologie der künstlichen Intelligenz stehen, sich über die potenziell katastrophalen Auswirkungen hochintelligenter KI-Systeme äußern, dann ist es wahrscheinlich ratsam, aufmerksam zu sein.

Noch vor ein paar Monaten sagte Geoffrey Hinton, ein Mann, der aufgrund seiner Pionierarbeit auf diesem Gebiet als einer der „Paten“ der KI gilt, dass es aufgrund der rasanten Entwicklung der Technologie „nicht undenkbar“ sei, eine superintelligente KI in Betracht zu ziehen als dem menschlichen Geist überlegen sei – könnte am Ende zur Auslöschung der Menschheit führen.

Und Sam Altman, CEO von OpenAI, dem Unternehmen hinter dem viralen Chatbot ChatGPT , hatte zugegeben, „ein wenig Angst“ vor den möglichen Auswirkungen fortschrittlicher KI-Systeme auf die Gesellschaft zu haben.

Altman ist so besorgt, dass sein Unternehmen am Mittwoch die Einrichtung einer neuen Einheit namens Superalignment ankündigte, die sicherstellen soll, dass superintelligente KI am Ende kein Chaos oder noch viel Schlimmeres verursacht.

„Superintelligenz wird die einflussreichste Technologie sein, die die Menschheit je erfunden hat, und könnte uns helfen, viele der wichtigsten Probleme der Welt zu lösen“, sagte OpenAI in einem Beitrag zur Einführung der neuen Initiative. „Aber die enorme Macht der Superintelligenz könnte auch sehr gefährlich sein und zur Entmachtung der Menschheit oder sogar zur Ausrottung der Menschheit führen.“

OpenAI sagte, dass superintelligente KI zwar noch in weiter Ferne zu liegen scheint, aber davon ausgeht, dass sie bis 2030 entwickelt werden könnte. Und es gibt ohne weiteres zu, dass es zum jetzigen Zeitpunkt kein System gibt, „um eine potenziell superintelligente KI zu steuern oder zu kontrollieren und sie daran zu hindern.“ Schurke werden.“

Um mit der Situation umzugehen, möchte OpenAI einen „automatisierten Alignment-Forscher auf annähernd menschlicher Ebene“ aufbauen, der Sicherheitsüberprüfungen an einer superintelligenten KI durchführt, und fügt hinzu, dass die Bewältigung dieser Risiken auch neue Institutionen für die Governance und die Lösung des Problems der Superintelligenz-Alignment erfordert.

Damit Superalignment Wirkung zeigen kann, muss OpenAI ein Spitzenteam aus Spitzenforschern und Ingenieuren für maschinelles Lernen zusammenstellen.

Das Unternehmen zeigt sich sehr offen über seine Bemühungen und beschreibt es als „unglaublich ehrgeiziges Ziel“, gibt aber auch zu, dass es „keine Erfolgsgarantie“ gibt. Aber es fügt hinzu, dass es „optimistisch ist, dass eine gezielte, konzertierte Anstrengung dieses Problem lösen kann“.

Neue KI-Tools wie ChatGPT von OpenAI und Bard von Google und viele andere sind so revolutionär, dass Experten sicher sind, dass selbst auf diesem Niveau vor der Superintelligenz der Arbeitsplatz und die Gesellschaft im Allgemeinen in naher Zukunft vor grundlegenden Veränderungen stehen werden.

Aus diesem Grund bemühen sich Regierungen auf der ganzen Welt darum, aufzuholen und beeilen sich, der sich schnell entwickelnden KI-Industrie Vorschriften aufzuerlegen, um sicherzustellen, dass die Technologie auf sichere und verantwortungsvolle Weise eingesetzt wird. Sofern jedoch kein einziges Gremium gebildet wird, wird jedes Land seine eigenen Ansichten darüber haben, wie die Technologie am besten genutzt werden kann, was bedeutet, dass diese Vorschriften stark variieren und zu deutlich unterschiedlichen Ergebnissen führen können. Und es sind diese unterschiedlichen Ansätze, die es umso schwieriger machen, das Ziel von Superalignment zu erreichen.