DeepMind sucht bereits nach Möglichkeiten, uns vor AGI zu schützen
Künstliche allgemeine Intelligenz ist derzeit ein großes Thema – auch wenn sich niemand darüber einig ist, was AGI wirklich ist. Einige Wissenschaftler gehen davon aus, dass es noch Hunderte von Jahren dauern wird und eine Technologie erforderlich wäre, die wir uns noch nicht einmal ansatzweise vorstellen können, während Google DeepMind sagt, dass es bis 2030 soweit sein könnte – und es plant bereits Sicherheitsmaßnahmen.
Es ist nicht ungewöhnlich, dass sich die Wissenschaftsgemeinschaft bei solchen Themen nicht einig ist, und es ist gut, dass alle unsere Grundlagen mit Menschen abgedeckt sind, die sowohl für die unmittelbare als auch für die ferne Zukunft planen. Dennoch sind fünf Jahre eine ziemlich schockierende Zahl.
Derzeit sind die der Öffentlichkeit bekannten „Grenz-KI“-Projekte allesamt LLMs – ausgefallene kleine Worträtsel und Bildgeneratoren. ChatGPT zum Beispiel ist in Mathe immer noch schlecht, und jedes Modell, das ich jemals ausprobiert habe, ist schlecht darin, Anweisungen zuzuhören und ihre Antworten genau zu bearbeiten. Claude von Anthropic hat Pokémon immer noch nicht geschlagen und so beeindruckend die Sprachkenntnisse dieser Models auch sind, sie sind immer noch mit den schlechtesten Autoren der Welt vertraut und haben sich viele schlechte Angewohnheiten angeeignet.
Es ist schwer vorstellbar, von dem, was wir jetzt haben, zu etwas zu springen, das, in den Worten von DeepMind , Fähigkeiten aufweist, die „dem 99. Perzentil qualifizierter Erwachsener“ entsprechen oder diese übertreffen. Mit anderen Worten geht DeepMind davon aus, dass AGI genauso schlau oder schlauer sein wird als das oberste 1 % der Menschen auf der Welt.
Welche Risiken könnte DeepMind also durch eine AGI auf Einstein-Niveau mit sich bringen?
Dem Papier zufolge gibt es vier Hauptkategorien: Missbrauch, Fehlausrichtung, Fehler und strukturelle Risiken. Sie waren so nah an vier Ms dran, das ist eine Schande.
Unter „Missbrauch“ versteht DeepMind Dinge wie die Beeinflussung politischer Wahlen mit Deepfake-Videos oder die Nachahmung von Personen bei Betrügereien. In der Schlussfolgerung wird erwähnt, dass sich sein Sicherheitsansatz darauf konzentriert, „den Zugriff böswilliger Akteure auf gefährliche Funktionen zu blockieren“. Das klingt großartig, aber DeepMind ist ein Teil von Google und es gibt viele Leute, die den US-amerikanischen Technologieriesen selbst für einen potenziellen Bösewicht halten würden. Natürlich wird Google hoffentlich nicht versuchen, älteren Menschen Geld zu stehlen, indem es sich als ihre Enkelkinder ausgibt – aber das bedeutet nicht, dass es AGI nicht nutzen wird, um Gewinne zu erzielen, während es gleichzeitig die besten Interessen der Verbraucher ignoriert .
Es sieht so aus, als ob „Fehlausrichtung“ die Terminator-Situation ist, in der wir die KI um etwas bitten und sie einfach etwas völlig anderes tut. Es ist etwas unangenehm, darüber nachzudenken. Laut DeepMind besteht der beste Weg, dem entgegenzuwirken, darin, sicherzustellen, dass wir die Funktionsweise unserer KI-Systeme so detailliert wie möglich verstehen, damit wir erkennen können, wann etwas schief läuft, wo es schief läuft und wie wir es beheben können.
Dies widerspricht dem gesamten „spontanen Entstehen“ von Fähigkeiten und dem Konzept, dass AGI so komplex sein wird, dass wir nicht wissen, wie es funktioniert. Wenn wir in Sicherheit bleiben wollen, müssen wir stattdessen sicherstellen, dass wir wissen, was vor sich geht. Ich weiß nicht, wie schwer das sein wird, aber es macht auf jeden Fall Sinn, es zu versuchen.
Die letzten beiden Kategorien beziehen sich auf unbeabsichtigte Schäden – entweder Fehler seitens der KI oder einfach nur Chaos, wenn zu viele Personen beteiligt sind. Dazu müssen wir sicherstellen, dass wir über Systeme verfügen, die die Maßnahmen, die eine AGI ergreifen möchte, genehmigen und verhindern, dass verschiedene Personen in entgegengesetzte Richtungen vorgehen.
Auch wenn der Aufsatz von DeepMind völlig explorativ ist, scheint es bereits viele Möglichkeiten zu geben, wie wir uns vorstellen können, dass AGI schiefgeht. Das ist gar nicht so schlimm, wie es klingt – die Probleme, die wir uns vorstellen können, sind die Probleme, auf die wir uns am besten vorbereiten können. Es sind die Probleme, mit denen wir nicht rechnen, die beängstigender sind. Hoffen wir also, dass uns nichts Großes entgeht.
