Regisseur James Cameron: AGI ist eine „tickende Zeitbombe“

Regisseur James Cameron: AGI ist eine „tickende Zeitbombe“ - 800px JamesCameronHWOFOct2012

Am 23. Oktober hielt der bekannte kanadische Filmregisseur, Drehbuchautor und Produzent James Cameron eine Videorede für den SCSP (Special Competitive Studies Project, Special Competitive Studies Project) Artificial Intelligence + Robotics Summit in Washington.

In seiner Rede sagte Cameron, dass er als „Geschichtenerzähler“ und „Pionier, der den Trend von CGI (Computer-Generated Imagery, computergenerierte Bilder) anführt“, KI und Robotertechnologie liebe und bereit sei, „ Veränderungen aktiv anzunehmen “. Wenden Sie KI-Technologie auf die zukünftige Filmproduktion an.

Angesichts der Tatsache, dass KI „ keine Emotionen oder Gewissen“ hat , äußerte Cameron in seiner Rede mehr Bedenken hinsichtlich der KI- und AGI-Technologie, insbesondere der ethischen Überlegungen bei ihren militärischen Anwendungen und der Gefahr, dass AGI in Zukunft die Kontrolle verliert.

Seine Ansichten sind ziemlich radikal und scharf: AGI wird unweigerlich zu einer Kollision zwischen Zivilisation und Moral führen .

Aus einer Antikriegsperspektive und einer humanitären Perspektive kritisierte Cameron die „regionale Pseudomoral“ und glaubte , dass der Schlüssel darin liege, diesen KI-Systemen angemessene moralische Beschränkungen zu geben und einheitliche globale moralische Standards zu entwickeln.

Regisseur James Cameron: AGI ist eine „tickende Zeitbombe“ - 01 2

▲Regisseur James Cameron hielt eine Videoansprache

Als „ Spiegel für uns “ glaubt Cameron, dass AGI das Gute und das Böse der menschlichen Gesellschaft widerspiegelt. Es gibt keinen Mangel an Bösem in der menschlichen Welt und es besteht kein Konsens über Gerechtigkeit. Daher ist Cameron hinsichtlich der Entwicklung der AGI-Technologie vorsichtig optimistisch .

Link zum Originalvideo der Rede:

Im Folgenden sind Camerons Hauptpunkte seiner Rede aufgeführt:

  • KI hat weder Emotionen noch Gewissen und fällt keine moralischen Urteile über ihre Gegner auf dem Schlachtfeld.
  • Die Einführung der KI führt zur „Gamifizierung“ des Krieges und verwandelt ihn in eine Konfrontation zwischen Superintelligenzen ohne tiefgreifende emotionale Konsequenzen;
  • Selbstverbessernde Code-Schreib-AGI wird unweigerlich zu Superintelligenz führen;
  • AGI wird unweigerlich zu einer Kollision zwischen Zivilisation und Moral führen;
  • AGI wird es dem Überwachungskapitalismus ermöglichen, sich schnell in einen digitalen Totalitarismus zu verwandeln.
  • AGI ist ein Spiegel der menschlichen Welt und spiegelt sowohl die positiven als auch die negativen Aspekte der menschlichen Gesellschaft wider.

Im Folgenden finden Sie den vollständigen Text der von APPSO zusammengestellten Rede:

Hallo zusammen, mein Name ist James Cameron und ich bin derzeit in Neuseeland, wo ich die Dreharbeiten zu „Avatar 3“ abschließe.

Nun, ich bin kein Forscher oder Experte für künstliche Intelligenz oder Robotik. Ich bin nur ein Geschichtenerzähler, aber ich bin heute hier, weil meine Leidenschaft für KI und Robotik weit über die große Leinwand hinausgeht.

Ich bin fasziniert von Technologie, wie sie unsere Welt prägt, wohin sie in Zukunft führt und welche Auswirkungen sie auf die Gesellschaft hat. Seit ich ein Kind war, habe ich jedes Science-Fiction-Buch gelesen, das ich finden konnte.

Ich selbst verschiebe die Grenzen der Technologie als Mittel zum Geschichtenerzählen und als Entdecker.

Für meine Tiefseeexpeditionen habe ich Roboterfahrzeuge entworfen, die jedoch ferngesteuert waren und keine künstliche Intelligenz beinhalteten. Die Konvergenz von KI und Robotik, die jetzt stattfindet, ist einer der aufregendsten Technologiesprünge in meinem Leben.

Wir bauen nicht mehr nur Maschinen, die Befehle ausführen, sondern entwerfen Systeme, die lernen, sich anpassen und sich sogar weiterentwickeln können. Ich bin ein großer Befürworter der Veränderungen, die künstliche Intelligenz und Robotik für die gesamte Gesellschaft bewirken können, insbesondere in zwei Bereichen, die mir persönlich am Herzen liegen – Kunst und Geschichtenerzählen sowie Wissenschaft und Forschung.

Ich glaube nicht, dass man ein Luddit sein sollte. Ich sehe viele meiner Hollywood-Kollegen, die sich wie ein Mob mit Fackeln und Spitzhacken verhalten, aber wenn der Geist erst einmal aus der Flasche ist, kann er nicht wieder hineingesteckt werden.

Deshalb begrüße ich Veränderungen sehr und bin bereit, bei der Anwendung von KI in meinem Storytelling eine Vorreiterrolle einzunehmen, so wie ich vor 32 Jahren an vorderster Front stand, als ich das erste Unternehmen für rein digitale Effekte gründete.

Regisseur James Cameron: AGI ist eine „tickende Zeitbombe“ - 02 4

▲Digital Domain, das von Cameron gegründete Unternehmen für rein digitale Spezialeffekte

Aber der Grund, warum ich heute hier bin, ist, dass ich der Schöpfer von Skynet bin.

Vor vierzig Jahren habe ich den Terminator fotografiert, der in letzter Zeit zum Aushängeschild für die durcheinander geratene KI geworden ist. Jedes Mal, wenn ich zu KI-Konferenzen gehe, lachen die Forscher, bevor ich überhaupt etwas sage, solange ich meine Hand hebe, denn das „Skynet-Problem“ ist in der Tat ein Problem, das Aufmerksamkeit verdient, und ich kann es in fast jedem Artikel lesen Tag zu entsprechenden Diskussionen.

Regisseur James Cameron: AGI ist eine „tickende Zeitbombe“ - 03 2

▲Der klassische Science-Fiction-Film „Terminator“ unter der Regie von Cameron

Diese Forschungsgruppe konzentriert sich auf die nationale Sicherheit, die enorme Auswirkungen auf künstliche Intelligenz und Robotik hat.

Roboter, unabhängig von ihrer Form, seien es Radfahrzeuge, Flugdrohnen oder Laufmaschinen, sind eine physische Form künstlicher Intelligenz. Sie geben einer Entscheidungsmaschine die Möglichkeit, in der realen Welt physisch zu agieren.

Ich gehe davon aus, dass der Fokus heute auf mobilen Plattformen liegt und nicht auf KI, die Stromnetze steuert, oder auf fest installierten Industrierobotern. Wir sprechen von Plattformen, die autonom Entscheidungen treffen können, also von verkörperter synthetischer Intelligenz.

Das könnte so einfach sein wie eine Amöbe, wissen Sie, wie ein Roomba, oder letztendlich komplexer, bis zu dem Punkt, an dem es theoretisch wahres Bewusstsein beinhalten könnte, was auch immer das ist.

Wir sind uns alle einig, dass es sich dabei um AGI (Künstliche Allgemeine Intelligenz) handelt, die selbstbewusst, egozentrisch und zielstrebig ist. Wir bewegen uns auf einer steileren Kurve, mit schnelleren, dichteren Chips und immer größerer Rechenleistung, während die Fähigkeiten der Maschinenplattformen auf einer ebenso steilen Kurve wachsen.

Wie der tanzende Roboter von Boston Dynamics. Sie wissen schon, tanzende zweibeinige oder vierbeinige Roboter. Was für eine erstaunliche Darstellung.

Regisseur James Cameron: AGI ist eine „tickende Zeitbombe“ - 04 4

▲Der von Boston Dynamics entwickelte Tanzroboter „Atlas“.

Dadurch können KI-gesteuerte Roboter komplexe Situationen bewältigen und bereits jetzt über menschenähnliche Emotionen verfügen, wobei LLDs (Low-Level-Logic-Geräte) ihnen die Fähigkeit verleihen, Kognitionen zu simulieren und auf natürliche Weise mit Menschen zu interagieren.

Die verkörperte KI kann eine Krankenschwester, ein Robotertaxi, eine Altenpflegerin, ein Kindermädchen oder eine Lehrerin sein. Es könnte ein Roboter sein, der Erdbebenschutt sucht und rettet, oder eine Drohne, die den Himmel nach der Wärmesignatur eines vermissten Wanderers absucht. Es könnte sich um eine Waffenplattform handeln, die autonom auf dem Schlachtfeld agiert und nach der Hitzesignatur feindlicher Kämpfer sucht.

Die Frage, die sich stellt, ist: Sollten autonome Plattformen die Befugnis erhalten, nach eigenem Ermessen zu töten?

Der Krieg in der Ukraine zeigt uns die Zukunft auf deutlichste Weise. Der Einsatz tödlicher Flugdrohnen ist weit verbreitet, teils teure, teils billige Verbraucherprodukte.

Sie warfen Raketen ab, die Panzer und sogar ganze Panzerbesatzungen zerstörten, und drachenförmige Drohnen versprühten Schmelze, um russische Stellungen anzugreifen. Dabei handelt es sich jedoch um FPV-Drohnen (First Person View), die von Menschen gesteuert werden.

Aus moralischer Sicht sind Menschen Entscheidungskämpfer. Er oder sie hat die Autorität zu töten, und die Drohne ist eine Erweiterung seines Willens. Wenn Sie alle technischen Aspekte außer Acht lassen, ist dies nicht anders als bei den Bogenschützen in der Schlacht von Hastings.

Immer wenn eine solche Maschine einem Menschen das Leben kostet, erstreckt sich eine ethische Kette nach hinten und breitet sich auf viele Einzelpersonen und Gruppen aus.

Hinter dem Soldaten, der eine Rakete abfeuert oder den Abzug eines Gewehrs drückt, stehen Kommandeure, die den Tötungsbefehl erteilen, die diese autonomen Agenten im Großen und Ganzen gegen den Feind schicken, und darüber hinaus ein ganzes Militärsystem, das diese Verhaltensweisen belohnt; Es gibt Gesellschaft und Regierung, die sich im Konsens darüber einig sind, dass diese Todesfälle für die nationale Sicherheit notwendig sind.

Je weiter man in der Kette nach oben geht, desto diffuser wird die moralische und ethische Verantwortung, und die Verantwortung bis zum tatsächlichen Moment des Abdrückens wird weniger klar und hat den Effekt einer Art moralischer Absolution – „Ich habe nur Befehle befolgt.“ “.

Die Mitglieder der Kette waren nicht da, um das Schicksal des Individuums im Fadenkreuz zu sehen, aber sie schufen den Rahmen, der den Tod dieses Individuums ermöglichte und erforderte, und die Person, die den Abzug drückte, war in vielerlei Hinsicht ein hochqualifiziertes organisches Wesen A Roboterplattform, die Aufgaben auf Befehl von Vorgesetzten in der Befehlskette ausführt.

Im Moment der autonomen menschlichen Entscheidungsfindung war man stark auf Regeln angewiesen – man tötet keine Zivilisten, man tötet keine Kinder, man tötet keine kapitulierenden Feinde usw. Diese Regeln wurden in der Genfer Konvention kodifiziert und jede Armee hatte ihre eigenen Einsatzregeln.

Theoretisch könnten der KI also dieselben Einschränkungen auferlegt werden wie einem regelbasierten System. Wenn ihre Sinne schärfer, ihre Reaktionen schneller und ihr Ziel präziser sind, dann wird die KI theoretisch in der Lage sein, Aufgaben mit einer höheren Unterscheidungskraft als Menschen zu erledigen.

Natürlich können wir uns vorstellen, dass eine KI in der Hitze des Gefechts eine bessere Leistung erbringen würde als ein verängstigter, nervöser und erschöpfter menschlicher Krieger.

Regisseur James Cameron: AGI ist eine „tickende Zeitbombe“ - add

▲ Drohnen, die im Krieg eingesetzt werden können

Was wäre, wenn fortschrittliche KI verkörpert wäre? Ich spreche noch nicht von AGI, aber die Einbettung in eine Roboterwaffenplattform könnte hochpräzise Angriffe ermöglichen, Kollateralschäden reduzieren, möglicherweise Eigenbeschuss oder Verluste um Größenordnungen reduzieren, und die KI ist zielorientiert.

Es fällt keine moralischen Urteile über seine Gegner. Nachdem das US-Militär im Zweiten Weltkrieg herausgefunden hatte, dass das Schießen auf menschliche Ziele recht selten war, änderte es seine Trainingsmethoden und die Entmenschlichung des Feindes wurde entscheidend.

In Vietnam wurden Feinde „Dinks“, „Slopes“ und „Gooks“ genannt. Im Irak und in Afghanistan nennt man den Feind „Terroristen“, „Handtuchköpfe“, „Hajis“ und nicht Leute wie Sie und ich.

Die KI muss ihre Feinde nicht vermenschlichen, weil es ihr selbst egal ist. Es klingt, als würden wir über ChatGPT chatten, aber es ist nur ein improvisierter Papagei, ein menschlicher Simulator.

KI hat keine Emotionen, kein Gewissen, keine Schlafstörungen für die nächsten Jahrzehnte, keine PTBS (posttraumatische Belastungsstörung), keine Selbstmorde, keine langfristigen und teuren Kriegsfolgen, weil man das Physische und Psychische nicht behandeln muss Traumata ehemaliger Kombattanten.

Vor allem aber klopften strenge Männer in Uniform viel seltener an die Türen von Ehefrauen und Müttern und daher gab es auch viel weniger Aufschrei im heimischen Publikum. Krieg wird zu einem fernen Videospiel ohne tiefgreifende emotionale Konsequenzen für die Gesellschaft, die ihn finanziert und unterstützt, und man muss sich nicht einmal bei den Robotern bedanken, die im Krieg gegen den Terror dienen.

Sicher ist, dass autonome, von KI angetriebene Roboter, Tunnelräumschwärme, diese Aufgabe mit um Größenordnungen geringeren zivilen Opfern erledigen können.

Hier gibt es auch ein starkes Argument dafür, dass Sie keine Wahl haben, weil Ihr Gegner moralisch nicht so angeschlagen ist wie Sie.

Für einen solchen Gegner sind die einzigen Grenzen die Kosten und der Zugang zu Technologie, nicht die Ethik, daher ist dies eine tickende Zeitbombe. Wie schnell werden diese Jungs dieses Zeug beherrschen? Soweit sind diese Argumente richtig, oder?

Nun, lasst uns diese autonomen KI-Roboter bauen, und dann wird es knifflig. Wie lange wird es dauern, bis künstliche allgemeine Intelligenz (AGI) realisiert ist? Ist es ein Jahr, fünf Jahre, vielleicht zehn Jahre? Das ist die wahre Zeitbombe.

Wann immer es kommt, werden Sie eine selbstbewusste und sich selbst identifizierende Maschine haben, die wahrscheinlich genauso intelligent ist wie wir, wenn nicht sogar intelligenter, die sicherlich in vielerlei Hinsicht schneller und präziser denken kann und unbegrenztes Wachstumspotenzial hat, weil Selbstverbessernde Code-Schreib-AGI wird unweigerlich zur Superintelligenz führen.

Wie lange wird es dauern, bis Sie sich der Verbindung dieser Informationen mit Waffensystemen stellen müssen? Ich schätze etwa zehn Minuten, nachdem Ihr Gegner einen verheerenden Überraschungsangriff auf Sie gestartet hat. Daher verfügen Sie über ein Bewusstsein, das das Waffensystem intelligenter und schneller steuern kann als Sie.

Ich frage AGI-Forscher oft, wie man ein solches Bewusstsein kontrollieren würde. Nun, wir würden dafür Ziele und Grenzen setzen, die in das menschliche Wohlergehen integriert sind und mit ihm vereinbar sind.

Konsistenz, wissen Sie, ist ein sehr verbreitetes Wort. Konsistenz ist wie der Heilige Gral. Wir werden ihm beibringen, gute Dinge zu tun und keine schlechten Dinge zu tun, genau wie ein Kind.

Daher denke ich, dass AGI in Bezug auf Moral und Ethik unweigerlich zu einer Kollision zwischen Zivilisation und Moral führen wird.

Ich spreche nicht von endlosen philosophischen Spekulationen. Wir brauchen klare und feste Regeln, oder? Die Frage ist, wessen Moral? Wer definiert Gut und Böse?

Keine Panik, wir haben die Antwort vom großen Propheten Isaac Asimov und seinen Drei Gesetzen der Robotik .

Roboter dürfen Menschen nicht schaden, noch dürfen sie durch Untätigkeit Menschen Schaden zufügen. Roboter müssen menschlichen Befehlen gehorchen, es sei denn, diese Befehle stehen im Widerspruch zum Ersten Gesetz. Ein Roboter muss seine eigene Existenz schützen, sofern dieser Schutz nicht im Widerspruch zum ersten oder zweiten Gesetz steht.

Regisseur James Cameron: AGI ist eine „tickende Zeitbombe“ - 05 4

▲Berühmter Science-Fiction-Autor Isaac Asimov

Die Heiligkeit des menschlichen Lebens: Wir können den Prinzipien von Asimov folgen und ihn lehren, dass das menschliche Leben absolut heilig ist und über allen Überlegungen steht. Aber in den religiösen und sozialen Systemen, die dies behaupten, einschließlich des überwiegend christlichen Amerikas, brechen wir diese Regel jeden Tag.

Einsatz tödlicher Gewalt durch die Polizei, Krieger auf dem Schlachtfeld, Todesstrafe – wenn man an dieser Ausrichtung festhält, kann man AGI nicht mit einem Waffensystem verbinden.

Auf diese Weise sind Sie im bevorstehenden gewaltigen KI-Krieg mit einer Hand gegen einen mächtigen und weniger moralischen Gegner gefesselt, werden hart geschlagen und erleiden große Verluste, und dann werden Sie diese Beschränkung schnell aufheben.

Jetzt hat Ihre AGI ihre größte Leitplanke verloren. Eine AGI, die schlauer als wir und mit der realen Welt verbunden ist, muss nun selbst entscheiden, ob menschliches Leben einen Wert hat. Wissen Sie, die Einsatzregeln der Polizei und des Militärs besagen tatsächlich, dass manche Leben wertvoller sind als andere.

Sobald das Thema nicht-binär wird, wird es zu einer umstrittenen Grauzone. Historisch gesehen reichten die menschlichen Einstellungen von der Überzeugung, dass der Fötus vom Moment der Empfängnis an heiliges Leben sei, bis hin zur systematischen Abschlachtung von Millionen hilfloser Gefangener im Holocaust und allem dazwischen.

All dies geht mit einer Menge Selbstrechtfertigung und Rationalisierung einher, von denen viele für andere völlig lächerlich erscheinen mögen.

Da wir uns als Zivilisation in diesen Fragen nicht einigen können und die Menschen den ganzen Tag darüber streiten, wie können wir dann hoffen, ein klares und festes Regelwerk aufzustellen, damit die AGI mit uns übereinstimmt?

Das Beste, was wir annehmen können, ist, dass es mit dem „Wir“ übereinstimmt, das es geschaffen hat.

Diese Leute da drüben sind der Feind und man kann sie töten, um uns zu beschützen. Dabei handelt es sich um eine Art regionale Pseudomoral, den Gegensatz „wir“ gegen „die anderen“, den die Menschen seit der Antike praktizieren.

Es wird also unsere Superintelligenz im Gegensatz zu ihrer Superintelligenz.

Unabhängig davon wird AGI nicht aus einem staatlich finanzierten Projekt hervorgehen, sondern aus einem der Technologiegiganten, die derzeit die Forschung finanzieren. Dann leben Sie in einer Welt, der Sie nicht zugestimmt haben, für die Sie nicht gestimmt haben, und koexistieren mit einer superintelligenten außerirdischen Spezies, die auf Unternehmensziele und -regeln reagiert, einer Entität, die Zugriff auf Kommunikationsaufzeichnungen und alles hat, was Sie sagen , und durch Ihre persönlichen Daten erfahren Sie, wo sich jeder im Land aufhält.

Der Überwachungskapitalismus kann schnell in digitalen Totalitarismus umschlagen. Bestenfalls werden diese Technologiegiganten zu eigenständigen Schiedsrichtern über das menschliche Wohlergehen, das Äquivalent des Fuchses, der den Hühnerstall bewacht.

Sie würden nie auf die Idee kommen, diese Macht gegen uns einzusetzen und uns bis zum letzten Tropfen Geld aus der Tasche zu ziehen. Das ist gruseliger als das Szenario, das ich vor 40 Jahren in „Terminator“ dargestellt habe, und das nicht nur, weil es keine Science-Fiction mehr ist, sondern jetzt passiert.

Übrigens gebe ich voll und ganz zu, dass das Letzte, was eine superintelligente Maschine tun wird, darin besteht, unsere eigenen Atomwaffen gegen uns einzusetzen. Genau wie in dieser alten Geschichte kann eine Beschädigung der eigenen Dateninfrastruktur durch EMP das Unternehmen lahmlegen oder zerstören.

Das wahrscheinlichere Szenario ist, dass es gezwungen sein wird, uns zu übernehmen, weil wir kurz davor stehen, Atomwaffen gegeneinander einzusetzen. Zu diesem Zeitpunkt musste es alles übernehmen, weil man uns offensichtlich nicht trauen konnte. Wissen Sie, das ist nicht so schlimm. Entschuldigung, ich muss dieses Skript schreiben.

Ich bin optimistisch, was KI angeht, aber nicht so begeistert von AGI, weil AGI nur ein Spiegel von uns sein wird, gut in dem Maße, in dem wir gut sind, und böse in dem Ausmaß, in dem wir böse sind.

Da das Böse in der menschlichen Welt keine Seltenheit ist und es keinen Konsens darüber gibt, was gut ist, kann viel schiefgehen.

Sie werden eine interessante Diskussion führen. Ich wünschte, ich könnte auch dabei sein.

# Willkommen beim offiziellen öffentlichen WeChat-Konto von Aifaner: Aifaner (WeChat-ID: ifanr) wird Ihnen so schnell wie möglich zur Verfügung gestellt.

Ai Faner |. Ursprünglicher Link · Kommentare anzeigen · Sina Weibo