Warum KI niemals die Welt beherrschen wird
Nennen Sie es die Skynet-Hypothese, Künstliche Allgemeine Intelligenz oder das Aufkommen der Singularität – seit Jahren haben KI-Experten und Nicht-Experten gleichermaßen die Idee beunruhigt (und für eine kleine Gruppe gefeiert), dass künstliche Intelligenz eines Tages intelligenter sein könnte als Menschen.
Der Theorie zufolge werden Fortschritte in der KI – insbesondere beim maschinellen Lernen, das in der Lage ist, neue Informationen aufzunehmen und seinen Code entsprechend umzuschreiben – schließlich die Wetware des biologischen Gehirns einholen. In dieser Interpretation der Ereignisse bringt jeder KI-Fortschritt von Jeopardy -prämierten IBM-Maschinen bis hin zum massiven KI-Sprachmodell GPT-3 die Menschheit einen Schritt näher an eine existenzielle Bedrohung heran. Wir bauen buchstäblich unsere bald empfindungsfähigen Nachfolger auf .
Außer, dass es nie passieren wird. Zumindest, so die Autoren des neuen Buches Why Machines Will Never Rule the World: Artificial Intelligence without Fear .
Die Co-Autoren Barry Smith , Philosophieprofessor an der University of Buffalo, und Jobst Landgrebe , Gründer des deutschen KI-Unternehmens Cognotekt, argumentieren, dass die menschliche Intelligenz in absehbarer Zeit nicht von „einem unsterblichen Diktator“ überholt werden wird – oder jemals. Sie erklärten Digital Trends ihre Gründe dafür.
Digital Trends (DT): Wie ist dieses Thema auf Ihren Radar gekommen?
Jobst Landgrebe (JL): Ich bin ausgebildeter Mediziner und Biochemiker. Als ich meine Karriere begann, habe ich Experimente durchgeführt, die viele Daten generiert haben. Ich habe angefangen, Mathematik zu studieren, um diese Daten interpretieren zu können, und habe gesehen, wie schwierig es ist, biologische Systeme mathematisch zu modellieren. Es gab immer diese Diskrepanz zwischen den mathematischen Methoden und den biologischen Daten.
Mit Mitte dreißig verließ ich die Wissenschaft und wurde Unternehmensberater und Unternehmer, der sich mit Softwaresystemen für künstliche Intelligenz beschäftigte. Ich habe versucht, KI-Systeme zu bauen, die das nachahmen, was Menschen tun können. Mir wurde klar, dass ich auf das gleiche Problem stieß, das ich Jahre zuvor in der Biologie hatte.
Kunden sagten zu mir: „Warum bauen Sie keine Chatbots?“ Ich sagte, 'weil sie nicht funktionieren; wir können diese Art von System nicht richtig modellieren.' Das hat letztendlich dazu geführt, dass ich dieses Buch geschrieben habe.
Professor Barry Smith (BS): Ich dachte, es sei ein sehr interessantes Problem. Ähnliche Probleme mit KI hatte ich auch schon geahnt, aber nie zu Ende gedacht. Zunächst schrieben wir ein Papier mit dem Titel „ Künstliche Intelligenz wieder sinnvoll machen “. (Das war in der Trump-Ära.) Es ging darum, warum neuronale Netze bei der Sprachmodellierung versagen. Dann beschlossen wir, das Papier zu einem Buch zu erweitern, in dem dieses Thema eingehender untersucht wird.
DT: Ihr Buch drückt Skepsis darüber aus, wie neuronale Netze, die für modernes Deep Learning von entscheidender Bedeutung sind, das menschliche Gehirn emulieren. Sie sind eher Annäherungen als genaue Modelle der Funktionsweise des biologischen Gehirns. Aber akzeptieren Sie die Kernprämisse, dass es möglich ist, dass, wenn wir das Gehirn in granular genug Details verstehen, es künstlich repliziert werden könnte – und dass dies zu Intelligenz oder Empfindungsvermögen führen würde?
JL: Der Name „neuronales Netzwerk“ ist eine völlig falsche Bezeichnung. Die neuronalen Netze, die wir heute haben, selbst die ausgeklügeltsten, haben nichts mit der Funktionsweise des Gehirns zu tun. Die Ansicht, das Gehirn sei ein Satz miteinander verbundener Knoten, so wie neuronale Netze aufgebaut sind, ist völlig naiv.
Wenn Sie sich die primitivste Bakterienzelle ansehen, verstehen wir immer noch nicht einmal, wie sie funktioniert. Wir verstehen einige seiner Aspekte, aber wir haben kein Modell dafür, wie es funktioniert – geschweige denn ein Neuron, das viel komplizierter ist, oder Milliarden von Neuronen, die miteinander verbunden sind. Ich glaube, es ist wissenschaftlich unmöglich zu verstehen, wie das Gehirn funktioniert. Wir können nur bestimmte Aspekte verstehen und mit diesen Aspekten umgehen. Wir haben kein vollständiges Verständnis davon, wie das Gehirn funktioniert, und wir werden es auch nicht bekommen.
Wenn wir ein perfektes Verständnis dafür hätten, wie jedes Molekül des Gehirns funktioniert, könnten wir es wahrscheinlich replizieren. Das würde bedeuten, alles in mathematische Gleichungen zu stecken. Dann könnten Sie dies mit einem Computer replizieren. Das Problem ist nur, dass wir diese Gleichungen nicht aufschreiben und erstellen können.
BS: Viele der interessantesten Dinge auf der Welt geschehen auf einer Granularitätsebene, an die wir uns nicht herantasten können. Wir haben einfach nicht die bildgebende Ausrüstung, und wir werden wahrscheinlich nie die bildgebende Ausrüstung haben, um das meiste, was auf den sehr feinen Ebenen des Gehirns vor sich geht, einzufangen.
Das bedeutet, dass wir zum Beispiel nicht wissen, was für das Bewusstsein verantwortlich ist. Tatsächlich gibt es eine Reihe recht interessanter philosophischer Probleme, die nach der Methode, der wir folgen, immer unlösbar sein werden – und deshalb sollten wir sie einfach ignorieren.
Eine andere ist die Willensfreiheit. Wir sind sehr stark dafür, dass Menschen einen Willen haben; wir können Absichten, Ziele und so weiter haben. Aber wir wissen nicht, ob es ein freier Wille ist oder nicht. Das hat mit der Physik des Gehirns zu tun. Soweit die uns vorliegenden Beweise betroffen sind, können Computer keinen Willen haben.
DT: Der Untertitel des Buches lautet „Künstliche Intelligenz ohne Angst“. Was ist die konkrete Angst, auf die Sie sich beziehen?
BS: Das wurde durch die Literatur über die Singularität provoziert, von der ich weiß, dass Sie damit vertraut sind. Nick Bostrom, David Chalmers, Elon Musk und dergleichen. Als wir uns mit unseren Kollegen in der realen Welt unterhielten, wurde uns klar, dass es tatsächlich eine gewisse Angst in der Bevölkerung gab, dass die KI irgendwann die Macht übernehmen und die Welt zum Nachteil der Menschen verändern würde.
Wir haben ziemlich viel in dem Buch über Argumente vom Bostrum-Typ. Das Kernargument dagegen ist: Wenn die Maschine keinen Willen haben kann, dann kann sie auch keinen bösen Willen haben. Ohne einen bösen Willen gibt es nichts zu befürchten. Jetzt können wir natürlich immer noch Angst vor Maschinen haben, genauso wie wir Angst vor Waffen haben können.
Aber das liegt daran, dass die Maschinen von Menschen mit bösen Absichten verwaltet werden. Aber andererseits ist es nicht die KI, die böse ist; Es sind die Menschen, die die KI bauen und programmieren
DT: Warum interessiert dieser Begriff der Singularität oder der künstlichen allgemeinen Intelligenz die Menschen so sehr? Ob sie Angst davor haben oder davon fasziniert sind, diese Idee hat etwas, das bei den Menschen auf breiter Ebene Anklang findet.
JL: Es gibt diese Idee, die zu Beginn des 19. Jahrhunderts aufkam und dann von Nietzsche am Ende dieses Jahrhunderts erklärt wurde, dass Gott tot ist. Da die Eliten unserer Gesellschaft keine Christen mehr sind, brauchten sie einen Ersatz. Max Stirner, der wie Karl Marx ein Schüler Hegels war, schrieb darüber ein Buch mit den Worten: „Ich bin mein eigener Gott“.
Wenn du Gott bist, willst du auch ein Schöpfer sein. Wenn Sie eine Superintelligenz erschaffen könnten, dann wären Sie wie Gott. Ich denke, das hat mit den hypernarzisstischen Tendenzen in unserer Kultur zu tun. Wir sprechen in dem Buch nicht darüber, aber das erklärt mir, warum diese Idee so attraktiv ist in unserer Zeit, in der es keine transzendente Entität mehr gibt, an die man sich wenden kann.
DE: Interessant. Um dem nachzugehen, ist es die Idee, dass die Schaffung von KI – oder das Ziel, KI zu schaffen – ein narzisstischer Akt ist. In diesem Fall ist das Konzept, dass diese Schöpfungen irgendwie mächtiger werden würden als wir, eine alptraumhafte Wendung. Es ist das Kind, das die Eltern tötet.
JL: Ein bisschen so, ja.
DT: Was wäre für Sie das Endergebnis Ihres Buches, wenn alle von Ihren Argumenten überzeugt wären? Was würde das für die Zukunft der KI-Entwicklung bedeuten?
JL: Das ist eine sehr gute Frage. Ich kann Ihnen genau sagen, was meiner Meinung nach passieren würde – und passieren wird. Ich denke, mittelfristig werden die Leute unsere Argumente akzeptieren, und dies wird eine besser angewandte Mathematik schaffen.
Etwas, dessen sich alle großen Mathematiker und Physiker vollkommen bewusst sind, waren die Grenzen dessen, was sie mathematisch erreichen konnten. Weil sie sich dessen bewusst sind, konzentrieren sie sich nur auf bestimmte Probleme. Wenn Sie sich der Einschränkungen bewusst sind, dann gehen Sie durch die Welt und suchen nach diesen Problemen und lösen sie. So fand Einstein die Gleichungen für die Brownsche Bewegung; wie er zu seinen Relativitätstheorien kam; wie Planck die Schwarzkörperstrahlung löste und damit die Quantentheorie der Materie begründete. Sie hatten ein gutes Gespür dafür, welche Probleme sich mathematisch lösen lassen und welche nicht.
Wenn Menschen die Botschaft unseres Buches verstehen, werden sie unserer Meinung nach in der Lage sein, bessere Systeme zu entwickeln, weil sie sich auf das wirklich Machbare konzentrieren – und aufhören, Geld und Mühe für etwas zu verschwenden, das nicht erreicht werden kann.
BS: Ich denke, dass ein Teil der Botschaft bereits ankommt, nicht aufgrund dessen, was wir sagen, sondern aufgrund der Erfahrungen, die Menschen machen, wenn sie KI-Projekten viel Geld geben und dann die KI-Projekte scheitern. Ich schätze, Sie kennen das Joint Artificial Intelligence Center. Ich kann mich nicht an die genaue Summe erinnern, aber ich glaube, es waren ungefähr 10 Milliarden Dollar, die sie einem berühmten Bauunternehmer gaben. Am Ende haben sie nichts davon. Sie haben den Vertrag gekündigt.
(Anmerkung des Herausgebers: JAIC, eine Unterabteilung der US-Streitkräfte, sollte die „Bereitstellung und Einführung von KI beschleunigen, um Missionswirkung in großem Maßstab zu erzielen.“ Sie wurde in eine größere einheitliche Organisation, den Chief Digital and Artificial Intelligence Officer, zusammengelegt , mit zwei weiteren Büros im Juni dieses Jahres. JAIC hörte auf, als eigene Einheit zu existieren.)
DT: Was ist Ihrer Meinung nach, allgemein gesprochen, das überzeugendste Argument, das Sie in dem Buch vorbringen?
BS: Jedes KI-System ist mathematischer Natur. Da wir Bewusstsein, Willen oder Intelligenz nicht mathematisch modellieren können, können diese nicht maschinell nachgebildet werden. Maschinen werden also nicht intelligent, geschweige denn superintelligent.
JL: Die Struktur unseres Gehirns lässt nur begrenzt Modelle der Natur zu. In der Physik wählen wir eine Teilmenge der Realität aus, die zu unseren mathematischen Modellierungsfähigkeiten passt. So kamen Newton, Maxwell, Einstein oder Schrödinger zu ihren berühmten und schönen Modellen. Aber diese können nur eine kleine Menge von Systemen beschreiben oder vorhersagen. Unsere besten Modelle sind die, mit denen wir Technik konstruieren. Wir sind nicht in der Lage, ein vollständiges mathematisches Modell der belebten Natur zu erstellen.
Dieses Interview wurde aus Gründen der Länge und Klarheit bearbeitet.