Studie besagt, dass der KI-Hype echte Forschung zu künstlicher Intelligenz behindert
Diesen Monat wurde eine neue Studie der AAAI (Association for the Advancement of Artificial Intelligence) mit Hunderten von beitragenden KI-Forschern veröffentlicht, und die wichtigste Erkenntnis ist folgende: Unser aktueller Ansatz zur KI wird uns wahrscheinlich nicht zur künstlichen allgemeinen Intelligenz führen.
KI ist schon seit einigen Jahren ein Schlagwort, doch künstliche Intelligenz als Forschungsgebiet gibt es schon seit vielen Jahrzehnten. Alan Turings berühmter Artikel „Computing Machinery and Intelligence“ und derTuring-Test, über den wir heute noch sprechen, wurden beispielsweise 1950 veröffentlicht.
Die KI, von der heute alle reden, ist das Ergebnis dieser jahrzehntelangen Forschung, weicht aber auch davon ab. Statt einer wissenschaftlichen Tätigkeit haben wir mittlerweile auch einen abweichenden Zweig der künstlichen Intelligenz, den man „kommerzielle KI“ nennen könnte.

Die Bemühungen um kommerzielle KI werden von großen Technologiemonopolen wie Microsoft, Google, Meta, Apple und Amazon angeführt – und ihr Hauptziel ist die Entwicklung von KI-Produkten . Das sollte kein Problem sein, aber im Moment scheint es so zu sein.
Erstens: Da die meisten Menschen die KI-Forschung bis vor ein paar Jahren noch nie verfolgt haben, kommt alles, was der Durchschnittsbürger über KI weiß, von diesen Unternehmen und nicht von der Wissenschaftsgemeinschaft. Die Studie behandelt dieses Thema im Kapitel „KI-Wahrnehmung vs. Realität“, wobei 79 % der beteiligten Wissenschaftler der Meinung sind, dass die aktuelle Wahrnehmung der KI-Fähigkeiten nicht mit der Realität der KI-Forschung und -Entwicklung übereinstimmt.
Mit anderen Worten: Was die breite Öffentlichkeit denkt, dass KI leisten kann, stimmt nicht mit dem überein, was Wissenschaftler glauben, dass KI leisten kann. Der Grund dafür ist so einfach wie bedauerlich: Wenn ein großer Technologievertreter eine Aussage über KI macht, handelt es sich nicht um eine wissenschaftliche Meinung, sondern um Produktmarketing. Sie wollen die Technologie hinter ihren neuen Produkten aufwerten und sicherstellen, dass jeder das Bedürfnis verspürt, auf diesen Zug aufzuspringen.
Wenn Sam Altman oder Mark Zuckerberg sagen, dass Jobs im Software-Engineering beispielsweise durch KI ersetzt werden, dann deshalb, weil sie Ingenieure dazu bewegen wollen, KI-Fähigkeiten zu erlernen, und Technologieunternehmen dazu bewegen wollen, in teure Unternehmenspläne zu investieren. Bis sie jedoch anfangen, ihre eigenen Ingenieure auszutauschen (und davon profitieren), würde ich persönlich kein Wort von ihnen zu diesem Thema hören.
Es ist jedoch nicht nur die öffentliche Wahrnehmung, die kommerzielle KI beeinflusst. Die Studienteilnehmer glauben, dass der „KI-Hype“, der von großen Technologieunternehmen betrieben wird, die Forschungsbemühungen beeinträchtigt. Beispielsweise stimmen 74 % zu, dass die Richtung der KI-Forschung durch den Hype bestimmt wird – das liegt wahrscheinlich daran, dass Forschung, die mit kommerziellen KI-Zielen in Einklang steht, einfacher zu finanzieren ist. 12 % glauben auch, dass die theoretische KI-Forschung darunter leidet.
Also, wie groß ist das Problem? Selbst wenn große Technologieunternehmen die Art unserer Forschung beeinflussen, sollte man annehmen, dass die enormen Geldsummen, die sie in das Feld pumpen, insgesamt einen positiven Einfluss haben sollten. Bei der Forschung ist Vielfalt jedoch von entscheidender Bedeutung – wir müssen alle möglichen Wege beschreiten, um den besten Weg zu finden.
Aber Big Tech konzentriert sich im Moment nur auf eines: große Sprachmodelle . Dieser äußerst spezifische Typ von KI-Modellen ist es, der fast alle neuesten KI-Produkte antreibt, und Persönlichkeiten wie Sam Altman glauben, dass die weitere Skalierung dieser Modelle (d. h. indem wir ihnen mehr Daten, mehr Trainingszeit und mehr Rechenleistung geben) uns letztendlich künstliche allgemeine Intelligenz bescheren wird.
Dieser als Skalierungshypothese bezeichnete Glaube besagt, dass je mehr Leistung wir einer KI geben, desto stärker werden ihre kognitiven Fähigkeiten zunehmen und desto stärker werden ihre Fehlerraten sinken. Einige Interpretationen besagen auch, dass unerwartet neue kognitive Fähigkeiten entstehen. Auch wenn LLM-Studenten derzeit nicht besonders gut darin sind, Probleme zu planen und zu durchdenken, sollten diese Fähigkeiten irgendwann zum Vorschein kommen.
es gibt keine Mauer
– Sam Altman (@sama) 14. November 2024
In den letzten Monaten geriet die Skalierungshypothese jedoch stark in die Kritik. Einige Wissenschaftler glauben, dass die Skalierung von LLMs niemals zu AGI führen wird, und sie glauben, dass die ganze zusätzliche Leistung, die wir neuen Modellen zuführen, keine Ergebnisse mehr liefert. Stattdessen stoßen wir auf eine „Skalierungsgrenze“ oder „Skalierungsgrenze“, bei der große Mengen an zusätzlicher Rechenleistung und Daten nur zu kleinen Verbesserungen in neuen Modellen führen. Die meisten Wissenschaftler, die an der AAAI-Studie teilgenommen haben, sind auf dieser Seite des Arguments:
Die Mehrheit der Befragten (76 %) gibt an, dass die „Ausweitung aktueller KI-Ansätze“ zur Erzielung von AGI „unwahrscheinlich“ oder „sehr unwahrscheinlich“ sei, was darauf hindeutet, dass Zweifel daran bestehen, ob die aktuellen Paradigmen des maschinellen Lernens ausreichen, um allgemeine Intelligenz zu erreichen.
Aktuelle große Sprachmodelle können sehr relevante und nützliche Antworten liefern, wenn die Dinge gut laufen, sie stützen sich dabei jedoch auf mathematische Prinzipien . Viele Wissenschaftler glauben, dass wir neue Algorithmen brauchen werden, die Argumentation, Logik und reales Wissen nutzen, um eine Lösung zu finden, wenn wir dem Ziel von AGI näher kommen wollen. Hier ist ein pikantes Zitat zu LLMs und AGI aus einem Aufsatz von Jacob Browning und Yann Lecun aus dem Jahr 2022 .
Ein System, das allein auf Sprache trainiert wird, wird niemals an die menschliche Intelligenz herankommen, selbst wenn es von jetzt an bis zum Hitzetod des Universums trainiert wird.
Es gibt jedoch keine wirkliche Möglichkeit herauszufinden, wer hier Recht hat – noch nicht. Zum einen ist die Definition von AGI nicht in Stein gemeißelt und nicht jeder strebt das Gleiche an. Manche Menschen glauben, dass AGI durch menschenähnliche Methoden menschenähnliche Reaktionen hervorrufen sollte – sie sollten also die Welt um sich herum beobachten und Probleme auf ähnliche Weise wie wir herausfinden. Andere sind der Meinung, dass AGI sich mehr auf korrekte Antworten als auf menschenähnliche Antworten konzentrieren sollte und dass die von ihnen verwendeten Methoden keine Rolle spielen sollten.
In vielerlei Hinsicht spielt es jedoch keine Rolle, an welcher Version von AGI Sie interessiert sind oder ob Sie für oder gegen die Skalierungshypothese sind – wir müssen unsere Forschungsanstrengungen dennoch diversifizieren. Wenn wir uns nur auf die Skalierung von LLMs konzentrieren, müssen wir, wenn es nicht klappt, von vorne beginnen und es könnte sein, dass wir keine neuen Methoden entdecken, die effektiver oder effizienter sind. Viele der Wissenschaftler in dieser Studie befürchten, dass kommerzielle KI und der damit verbundene Hype den echten Fortschritt bremsen werden – wir können jedoch nur hoffen, dass ihre Bedenken ausgeräumt werden und beide Zweige der KI-Forschung lernen können, zusammenzuleben und Fortschritte zu machen. Wenn Sie möchten, können Sie auch hoffen, dass die KI-Blase platzt und alle KI-gestützten Technologieprodukte in der Bedeutungslosigkeit verschwinden.