Gerade hat OpenAI o3-pro veröffentlicht, das Open-Source-Modell wurde verzögert und Ultraman hat einen langen Artikel veröffentlicht: Gentle Singularity

Gerade hat OpenAI o3-pro veröffentlicht, das Open-Source-Modell wurde verzögert und Ultraman hat einen langen Artikel veröffentlicht: Gentle Singularity - 1113

ChatGPT war eine ganze Nacht lang ausgefallen und unter Internetnutzern auf der ganzen Welt herrschte Chaos.

Auch die Lösung von OpenAI war etwas unkonventionell: Während das Unternehmen mit der Behebung von Fehlern beschäftigt war, brachte es plötzlich das Modell o3-pro auf den Markt.

Gerade hat OpenAI o3-pro veröffentlicht, das Open-Source-Modell wurde verzögert und Ultraman hat einen langen Artikel veröffentlicht: Gentle Singularity - 1116

Ab heute ist o3-pro zunächst für Pro- und Team-Benutzer verfügbar und ersetzt das ursprüngliche o1-pro in der Modellauswahl, während Enterprise- und Edu-Benutzer bis nächste Woche warten müssen.

Ich kann nur sagen, dass das Leben der Plus-Benutzer auch ein Leben ist.

o3-pro ist da, leistungsstärker, aber auch langsamer

Als verbesserte Version des Schlussfolgerungsmodells o3 eignet sich o3-pro besser für die Bearbeitung komplexer Probleme und liefert präzisere Antworten, insbesondere in Szenarien wie wissenschaftlicher Forschung, Programmierung, Bildung und Schreiben, wo es offensichtliche Vorteile bietet.

Darüber hinaus unterstützt es auch den Aufruf des vollständigen Toolset von ChatGPT, wie z. B. Websuche, Dateianalyse, Bildbegründung, Python-Programmierung, Speicherpersonalisierung usw., mit insgesamt stärkeren Ausführungs- und Integrationsfunktionen.

Gerade hat OpenAI o3-pro veröffentlicht, das Open-Source-Modell wurde verzögert und Ultraman hat einen langen Artikel veröffentlicht: Gentle Singularity - 1113

Natürlich hat sich mit mehr Funktionen auch die Reaktionsgeschwindigkeit etwas verlangsamt.

Da die Aufgabenplanung und die Toolchain-Aufrufe komplizierter sind, ist die Antwortgeschwindigkeit von o3-pro im Allgemeinen höher als die von o1-pro. Daher eignet es sich besser für den Einsatz in Szenarien, in denen Sie sorgfältig nachdenken müssen oder hohe Anforderungen an die Genauigkeit der Antwort stellen.

In der offiziellen Expertenbewertung waren die Rezensenten im Allgemeinen der Meinung, dass o3 Pro in Bezug auf Ausdrucksklarheit, Vollständigkeit der Antworten, Fähigkeit zur Ausführung von Anweisungen und logische Genauigkeit einen Schritt weiter ging als das o3-Modell und sich besonders für Aufgaben eignete, die detaillierte Ergebnisse erfordern, wie etwa Wissenschaft, Bildung, Programmierung, Wirtschaft und Schreiben.

Gerade hat OpenAI o3-pro veröffentlicht, das Open-Source-Modell wurde verzögert und Ultraman hat einen langen Artikel veröffentlicht: Gentle Singularity - 11116 1

Dies wurde auch durch akademische Bewertungen bestätigt, wobei die Gesamtleistung von o3-pro die von o1-pro und o3 durchweg übertrifft.

Gerade hat OpenAI o3-pro veröffentlicht, das Open-Source-Modell wurde verzögert und Ultraman hat einen langen Artikel veröffentlicht: Gentle Singularity - 11117 1

Um die Stabilität des Modells wissenschaftlicher zu bewerten, hat OpenAI den Bewertungsstandard „vier richtige Antworten“ eingeführt – nur wenn das Modell viermal hintereinander die richtige Antwort gibt, gilt es als erfolgreich.

Gerade hat OpenAI o3-pro veröffentlicht, das Open-Source-Modell wurde verzögert und Ultraman hat einen langen Artikel veröffentlicht: Gentle Singularity - 11118 1

Man kann sagen, dass dieser Mechanismus die Anforderungen an die Konsistenz der Argumentation erheblich erhöht hat.

Es ist erwähnenswert, dass o3 Pro dieses Mal keine separate Systemkarte herausgebracht hat. OpenAI sagte, dass die vollständige Sicherheitsbeschreibung auf der o3-Systemkarte zu finden sei, da o3-pro und o3 dasselbe zugrunde liegende Modell verwenden.

o3 Pro weist jedoch noch einige funktionale Einschränkungen auf, z. B. die fehlende Unterstützung temporärer Konversationen, der Bildgenerierung und der Canvas-Funktionen. Zur Bildgenerierung müssen Benutzer weiterhin die Modelle GPT-4o, o3 oder o4-mini verwenden.

Vor dem offiziellen Start wurde einigen Entwicklern ein früher Zugriff auf o3 Pro gewährt.

Ben Hylak, ein ehemaliger Softwareentwickler von SpaceX und Designer von Apple visionOS, erhielt letzte Woche frühzeitig Zugriff auf o3-pro und seine Erfahrungen wurden auch von OpenAI-CEO Sam Altman in den sozialen Medien erneut veröffentlicht.

Gerade hat OpenAI o3-pro veröffentlicht, das Open-Source-Modell wurde verzögert und Ultraman hat einen langen Artikel veröffentlicht: Gentle Singularity - 11119 1

Insbesondere nahmen sich Ben und sein Mitgründer Alexis die Zeit, sämtliche Notizen, Ziele und sogar Sprachmemos der vergangenen Planungstreffen von Raindrop zusammenzustellen und baten dann o3-pro, zu versuchen, ein strategisches Planungsdokument zu erstellen.

Die Ergebnisse des finalen Modells überraschten sie: Der Inhalt war klar und die Struktur vollständig. Es deckte nicht nur die Ziele und Zeitpläne ab, sondern priorisierte auch automatisch und wies sogar klar darauf hin, welche Inhalte gestrichen werden sollten.

Ben ist der Meinung, dass das Modell, egal wie leistungsstark es ist, nur schwer zu einem wirklich nützlichen „Mitglied“ werden kann, wenn es nicht in die reale Arbeitsumgebung integriert werden kann.

Der o3 Pro bietet deutliche Verbesserungen beim Verständnis komplexer Umgebungen, der Darstellung von Werkzeugfunktionen, dem Stellen geeigneter Fragen und der sinnvollen Ressourcenzuweisung. Obwohl das Modell gelegentlich das Problem hat, bei fehlendem Kontext zu „überdenken“, ist die Gesamtleistung deutlich besser als die der Vorgängerversion.

Gerade hat OpenAI o3-pro veröffentlicht, das Open-Source-Modell wurde verzögert und Ultraman hat einen langen Artikel veröffentlicht: Gentle Singularity - 1213

▲o3 pro (links) vs. o3 (rechts): o3 pro versteht seine eigenen Grenzen und Fähigkeiten eindeutig besser.

Im Vergleich mit ähnlichen Modellen lobte Ben, dass das Claude Opus zwar ein starkes Größengefühl habe, seine tatsächliche Leistung jedoch mittelmäßig sei; während das o3-pro praktischer sei und „einer völlig anderen Dimension“ angehöre.

In der klassischen, verbesserten Version der Hexagonal-Hüpfball-Challenge glaubt Blogger @flavioAd, dass o3-pro das erste Modell ist, das den echten Kollisionseffekt zwischen Ball und Wand nahezu perfekt handhaben kann.

Gerade hat OpenAI o3-pro veröffentlicht, das Open-Source-Modell wurde verzögert und Ultraman hat einen langen Artikel veröffentlicht: Gentle Singularity - 1115

ARC-AGI ist ein Benchmark-Framework, mit dem bewertet wird, ob Sprachmodelle über Schlussfolgerungsfähigkeiten verfügen, die denen einer künstlichen allgemeinen Intelligenz (AGI) ähneln.

Es soll das abstrakte Denken und die Problemlösungsfähigkeiten des KI-Systems bei der Konfrontation mit neuen Problemen testen, ähnlich der Fähigkeit des Menschen, sich schnell anzupassen und Lösungen zu finden, wenn er mit neuen Situationen konfrontiert wird.

Die neuesten Testergebnisse lauten wie folgt:

Gerade hat OpenAI o3-pro veröffentlicht, das Open-Source-Modell wurde verzögert und Ultraman hat einen langen Artikel veröffentlicht: Gentle Singularity - 1234

Wie Sie sehen, schneidet o3-pro bei schwierigen Aufgaben etwas besser ab, die Verbesserung ist jedoch nicht signifikant und die Kosten steigen mit zunehmender Schwierigkeit.

Enterprise ist die zweite Kurve, o3-pro ein neuer Eckpfeiler

Als o3-pro veröffentlicht wurde, verkündete OpenAI-CEO Sam Altman auf der sozialen Plattform auch eine wichtige Neuigkeit: Der Preis des o3-Modells sank um 80 %.

Derzeit berechnet das O3-Modell 2 US-Dollar pro Million eingegebener Token und 8 US-Dollar pro Million ausgegebener Token.

Kevin Weil, Chief Product Officer von OpenAI, schrieb, dass aufgrund des starken Benutzerfeedbacks das Nutzungslimit des O3-Modells für Plus-Benutzer verdoppelt werde und die Anpassung schrittweise umgesetzt werde.

Im Gegensatz dazu berechnet o3-pro 20 US-Dollar pro Million eingegebener Token und 80 US-Dollar pro Million ausgegebener Token, was 87 % günstiger ist als o1-pro.

Gerade hat OpenAI o3-pro veröffentlicht, das Open-Source-Modell wurde verzögert und Ultraman hat einen langen Artikel veröffentlicht: Gentle Singularity - 11115 1

OpenAI empfiehlt, bei der Verwendung von o3-pro den „Hintergrundmodus“ zu aktivieren: Aufgaben, die lange dauern, werden asynchron gestartet, um Probleme mit Anforderungstimeouts zu vermeiden.

Als Grund für die deutliche Preissenkung nannten die Behörden die umfassende Optimierung der Inferenz-Service-Architektur von OpenAI. Das Modell habe sich nicht verändert, die Inferenz sei aber effizienter, weshalb der Preis entsprechend nach unten angepasst worden sei.

Andererseits ist es möglicherweise untrennbar mit den neuen Entwicklungen von OpenAI im Bereich der Rechenressourcen verbunden.

Seit der Veröffentlichung von ChatGPT stellt die Begrenzung der Rechenressourcen für OpenAI immer ein „schwieriges Problem“ dar. Aufgrund der Einschränkungen der verbindlichen Vereinbarung mit Microsoft war der Azure-Cloud-Dienst der einzige Anbieter von Rechenzentrumsinfrastruktur für ChatGPT.

Gerade hat OpenAI o3-pro veröffentlicht, das Open-Source-Modell wurde verzögert und Ultraman hat einen langen Artikel veröffentlicht: Gentle Singularity - 22221

Laut Reuters aus den frühen Morgenstunden, die sich auf drei mit der Angelegenheit vertraute Personen berief, hat OpenAI im vergangenen Monat zur Verringerung des Rechendrucks eine Kooperationsvereinbarung mit Alphabet (der Muttergesellschaft von Google) geschlossen, um Google Cloud als zusätzlichen Cloud-Dienstanbieter einzuführen.

Eine solche Zusammenarbeit ist sowohl unerwartet als auch sinnvoll.

Einerseits ist ChatGPT eine der größten Bedrohungen für das Suchgeschäft von Google in den letzten Jahren und Google Cloud ist nun sein neuer Unterstützer geworden.

Andererseits wird der Umsatz von Google Cloud im Jahr 2024 43 Milliarden US-Dollar erreichen und damit 12 % des Umsatzes von Alphabet ausmachen. Um Amazon und Microsoft auf dem Cloud-Computing-Markt zu überholen, hat sich Google Cloud daher dazu verpflichtet, die Rolle eines „neutralen Anbieters von Rechenleistung“ zu übernehmen.

Der Abschluss dieser Kooperation wird für Google Cloud von großem Nutzen sein. OpenAI, Google und Microsoft haben sich zu diesem Bericht bisher nicht geäußert.

Gerade hat OpenAI o3-pro veröffentlicht, das Open-Source-Modell wurde verzögert und Ultraman hat einen langen Artikel veröffentlicht: Gentle Singularity - 1112

Gleichzeitig beschleunigt OpenAI den Einsatz von KI-Infrastrukturnetzwerken auf der ganzen Welt.

Anfang des Jahres trieb OpenAI außerdem das 500 Milliarden Dollar teure Stargate-Projekt mit SoftBank und Oracle voran und unterzeichnete mit CoreWeave einen mehrere Milliarden Dollar schweren Vertrag zur Beschaffung von Rechenleistung.

Hohe Investitionen setzen hohe Renditen voraus. Laut ausländischen Medienberichten dieser Woche lag der ARR von OpenAI im letzten Jahr bei etwa 5,5 Milliarden US-Dollar und hat nun die 10-Milliarden-US-Dollar-Marke überschritten – ein Anstieg von fast 80 %.
Zu beachten ist, dass die 10 Milliarden US-Dollar nur die verbraucherorientierten Produkte, die kostenpflichtigen ChatGPT-Produkte und die API-Umsätze umfassen und nicht die Lizenzeinnahmen und andere große Transaktionen von Microsoft. Im Geschäftsbereich bezeichnet der ARR die jährlich wiederkehrenden Einnahmen eines Unternehmens aus Abonnementdiensten oder langfristigen Verträgen. Er spiegelt einen vorhersehbaren und kontinuierlichen Einnahmestrom wider und wird häufig verwendet, um die Gesundheit und das Wachstumspotenzial von Abonnementmodellen zu messen.

Vereinfacht ausgedrückt: Ein Unternehmen, das Software as a Service (SaaS) anbietet, hat einen Abonnementvertrag mit einem Kunden, der jährlich 1.000 Yuan zahlt. Bei 100 solcher Kunden beträgt der ARR des Unternehmens 1.000 Yuan × 100 = 100.000 Yuan.

Gerade hat OpenAI o3-pro veröffentlicht, das Open-Source-Modell wurde verzögert und Ultraman hat einen langen Artikel veröffentlicht: Gentle Singularity - 22222

Letzte Woche gab OpenAI-COO Brad Lightcap außerdem bekannt, dass OpenAI derzeit drei Millionen zahlende kommerzielle Nutzer hat – mehr als die im Februar gemeldeten zwei Millionen. Man kann also sagen, dass sich OpenAI derzeit in einer sehr guten Lage befindet.

Während OpenAI durch o3 die Kosten für Basismodelle senkt und mit o3-pro die Fähigkeit zur Lösung komplexer Probleme verbessert, zielt es auf Szenarien mit hohem Wert ab und versucht, zwischen den beiden Enden einen Weg zur nächsten Wachstumskurve zu öffnen: Unternehmensdienste.

Die leistungsstärksten Modelle der Welt werden nacheinander veröffentlicht, und OpenAI ist auch eines davon in dieser KI-Welle.

Gerade hat OpenAI o3-pro veröffentlicht, das Open-Source-Modell wurde verzögert und Ultraman hat einen langen Artikel veröffentlicht: Gentle Singularity - 22223

Mit stärkeren Modellen, stabilerer Rechenleistung und zahlreicheren Tool-Aufrufen ist ChatGPT nicht mehr nur ein Chatbot, sondern ein Produktivitätspartner, der das produktivste Anwendungsszenario übernehmen soll: den Arbeitsplatz.

o3-pro ist ein neuer Eckpfeiler auf diesem Weg.

Ob es die Ambitionen von OpenAI unterstützen kann, muss sich erst mit der Zeit zeigen. Aber zumindest hat es jetzt dazu geführt, dass die Leute es sich neu vorstellen.

Das Modell wird Open Source sein, aber nicht im Juni

Gerade eben sagte Sam Altman in den sozialen Medien, dass OpenAI damit rechnet, später in diesem Sommer und nicht erst im Juni ein Open-Source-Modell mit öffentlichen Gewichtungen zu veröffentlichen.

Gerade hat OpenAI o3-pro veröffentlicht, das Open-Source-Modell wurde verzögert und Ultraman hat einen langen Artikel veröffentlicht: Gentle Singularity - 11120

Darüber hinaus hat Altman gerade seinen neuen persönlichen Blog „The Gentle Singularity“ gestartet, in dem er die Auswirkungen der KI-Entwicklung auf die menschliche Gesellschaft untersucht und darauf hinweist, dass dies möglicherweise der letzte Artikel ist, den er ohne die Hilfe von KI schreibt.

Seinen Worten zufolge treten Singularitäten aus der Perspektive der Relativität Stück für Stück auf, während die Fusion langsam voranschreitet.

Anbei die ursprüngliche Blogadresse: https://blog.samaltman.com/the-gentle-singularity

Gerade hat OpenAI o3-pro veröffentlicht, das Open-Source-Modell wurde verzögert und Ultraman hat einen langen Artikel veröffentlicht: Gentle Singularity - 1111 1

Sanfte Singularität

Wir haben den Ereignishorizont überschritten, der Start hat begonnen, die Menschheit steht kurz davor, eine digitale Superintelligenz aufzubauen, und zumindest bisher ist das nicht so seltsam, wie es scheint.

Roboter sind auf den Straßen noch nicht allgegenwärtig, und die meisten Menschen interagieren nicht den ganzen Tag mit KI. Menschen sterben immer noch an Krankheiten, Reisen ins All sind immer noch schwierig, und unser Verständnis des Universums ist noch sehr begrenzt.

Dennoch haben wir kürzlich Systeme entwickelt, die in vielerlei Hinsicht intelligenter sind als der Mensch und die menschliche Leistung deutlich steigern können. Die unwahrscheinlichsten Aspekte sind bereits erreicht – die wissenschaftlichen Durchbrüche, die Systeme wie GPT-4 und o3 ermöglichten, waren hart erkämpft, werden uns aber deutlich weiterbringen.

KI wird die Welt in vielerlei Hinsicht bereichern. Die Verbesserungen der Lebensqualität, die KI durch die Beschleunigung des wissenschaftlichen Fortschritts und die Steigerung der Produktivität mit sich bringt, werden jedoch enorm sein. Die Zukunft verspricht, weitaus besser zu werden als die Gegenwart. Wissenschaftlicher Fortschritt ist der größte Motor des allgemeinen Fortschritts; es ist spannend, darüber nachzudenken, wie viel mehr wir noch erreichen können.

In gewisser Weise ist ChatGPT bereits jetzt leistungsfähiger als jedes andere Tool in der Geschichte. Hunderte Millionen Menschen verlassen sich täglich darauf, und die Aufgaben werden immer wichtiger; eine kleine zusätzliche Funktion kann enorme positive Auswirkungen haben, während eine winzige Abweichung bei der Nutzung durch Hunderte Millionen Menschen ebenfalls enorme negative Auswirkungen haben kann.

Im Jahr 2025 werden wir intelligente Agenten sehen, die echte kognitive Arbeit leisten können; die Art und Weise, wie wir Computercode schreiben, wird revolutioniert. Im Jahr 2026 werden wir wahrscheinlich Systeme sehen, die originelle Erkenntnisse generieren können. Im Jahr 2027 vielleicht Roboter, die Aufgaben in der realen Welt erledigen können.

Mehr Menschen werden in der Lage sein, Software und Kunst zu schaffen. Doch auch die weltweite Nachfrage nach beidem wird dramatisch steigen. Experten, die diese neuen Werkzeuge nutzen, werden wahrscheinlich immer noch deutlich besser sein als Anfänger. Insgesamt wird ein Mensch im Jahr 2030 deutlich mehr erreichen als im Jahr 2020. Der Wandel wird dramatisch sein, und viele Menschen werden lernen, davon zu profitieren.

In den wichtigsten Punkten werden die 2030er Jahre wohl keine radikalen Veränderungen mit sich bringen. Die Menschen werden weiterhin ihre Familien lieben, ihrer Kreativität freien Lauf lassen, Spiele spielen und in Seen schwimmen.

Doch auch in anderer Hinsicht, die weiterhin von Bedeutung sein wird, dürften sich die 2030er Jahre deutlich von allen vorherigen Epochen unterscheiden. Wir kennen die Grenzen der menschlichen Intelligenz noch nicht, aber wir werden sie bald herausfinden.

In den 2030er Jahren werden Intelligenz und Energie – Ideen und die Fähigkeit, sie umzusetzen – im Überfluss vorhanden sein. Diese beiden Faktoren waren lange Zeit die grundlegenden Grenzen des menschlichen Fortschritts. Wären Intelligenz und Energie im Überfluss vorhanden (und eine gute Regierungsführung), könnten wir theoretisch alles erreichen.

Wir leben heute mit erstaunlicher digitaler Intelligenz, und nach dem anfänglichen Schock haben sich die meisten Menschen daran gewöhnt. Bald werden wir nicht mehr über die Fähigkeit der KI staunen, schöne Absätze zu schreiben, sondern erwarten, dass sie ganze Romane schreibt; von ihrer Fähigkeit, Krankheiten zu diagnostizieren, erwarten wir, dass sie Heilmittel entwickelt; von ihrer Fähigkeit, kleine Programme zu schreiben, hoffen wir, dass sie ganze Unternehmen gründen kann. So ist der Lauf der Singularität: Wunder werden zur Routine und schließlich zum Ausgangspunkt.

Wissenschaftler berichten, dass sie zwei- bis dreimal effizienter arbeiten als zuvor. Einer der wichtigsten Gründe für die Bedeutung fortschrittlicher KI liegt darin, dass wir sie nutzen können, um die KI-Forschung selbst zu beschleunigen. Wir könnten neue Rechenmaterialien, bessere Algorithmen und noch mehr unbekannte Möglichkeiten entdecken. Ob wir zehn Jahre Forschung in einem Jahr oder sogar nur in einem Monat abschließen können, die Geschwindigkeit des Fortschritts wird offensichtlich ganz anders sein.

Die uns zur Verfügung stehenden Werkzeuge werden uns künftig dabei helfen, wissenschaftliche Erkenntnisse zu gewinnen und fortschrittlichere KI-Systeme zu entwickeln. Natürlich ist dies noch keine KI, die ihren Code vollständig autonom aktualisiert, aber es handelt sich tatsächlich um die erste Form der „rekursiven Selbstverbesserung“.

Es gibt weitere sich selbst verstärkende Zyklen. Der wirtschaftliche Wert von KI treibt den Infrastrukturausbau voran, und immer mehr Ressourcen werden für den Betrieb dieser leistungsstarken KI-Systeme eingesetzt. Und Roboter, die andere Roboter bauen können (und in gewissem Sinne auch Rechenzentren, die andere Rechenzentren bauen können), sind nicht mehr weit entfernt.

Wenn wir die erste Million humanoider Roboter auf herkömmliche Weise bauen müssten, diese dann aber die gesamte Lieferkette übernehmen könnten – Mineralien abbauen und raffinieren, Lkw fahren, Fabriken betreiben usw. – und weitere Roboter, Chipfabriken und Rechenzentren bauen könnten, wäre das Tempo des Fortschritts ganz anders.

Mit zunehmender Automatisierung der Rechenzentrumsproduktion dürften sich die Kosten für Intelligenz irgendwann den Stromkosten annähern. (Viele Nutzer machen sich Sorgen darüber, wie viel Energie ChatGPT pro Abfrage verbraucht; eine durchschnittliche Abfrage verbraucht etwa 0,34 Wattstunden, was in etwa dem Betrieb eines Backofens für etwas mehr als eine Sekunde oder einer Energiesparlampe für einige Minuten entspricht. Zudem verbraucht jede Abfrage etwa 0,000085 Gallonen Wasser, also etwa ein Fünfzehntel Teelöffel.)

Der technologische Fortschritt wird sich weiter beschleunigen, und der Mensch ist äußerst anpassungsfähig. Zwar wird es schwierige Herausforderungen geben, wie etwa den Verlust ganzer Berufsgruppen. Andererseits wird der weltweite Wohlstand so schnell wachsen, dass wir ernsthaft über neue politische Strategien nachdenken können, die bisher nicht möglich waren. Wir werden vielleicht nicht auf einmal einen neuen Gesellschaftsvertrag schaffen, aber Jahrzehnte später werden wir zurückblicken und feststellen, dass die Anhäufung allmählicher Veränderungen einen gewaltigen Wandel bewirkt hat.

Wenn uns die Geschichte als Maßstab dient, werden wir immer wieder neue Beschäftigungen finden, neue Wünsche verfolgen und uns schnell an neue Werkzeuge anpassen (die beruflichen Veränderungen nach der Industriellen Revolution sind ein gutes Beispiel). Die Erwartungen der Menschen werden steigen, aber auch ihre Fähigkeiten werden sich rasant weiterentwickeln, und wir werden ein besseres Leben führen. Wir werden immer mehr wunderbare Dinge füreinander schaffen. Der Mensch hat einen langfristigen und wichtigen Vorteil gegenüber der KI: Wir sind von Natur aus an anderen Menschen und ihrem Denken und Handeln interessiert, während wir für Maschinen keine Gefühle empfinden.

Hätte ein Subsistenzbauer vor tausend Jahren gesehen, wie wir heute leben, hätte er geglaubt, wir würden „falschen Berufen“ nachgehen, als würden wir uns nur amüsieren, weil wir reichlich zu essen und unvorstellbaren Luxus haben. Ich hoffe, dass wir diese Berufe in tausend Jahren genauso sehen werden – als „völlig unecht“, aber zweifellos werden diese Menschen ihre Arbeit als äußerst wichtig und erfüllend empfinden.

In Zukunft werden wir viele neue Wunder erleben. Es ist schwer vorstellbar, welche Durchbrüche wir bis 2035 erzielen werden. Vielleicht lösen wir dieses Jahr Probleme der Hochenergiephysik und kolonisieren nächstes Jahr den Weltraum. Oder wir erzielen dieses Jahr einen großen Durchbruch in der Materialwissenschaft und realisieren nächstes Jahr eine wirklich bandbreitenstarke Gehirn-Computer-Schnittstelle. Viele Menschen werden sich dafür entscheiden, so weiterzuleben wie bisher, aber es wird definitiv Menschen geben, die sich für eine „Anbindung an das System“ entscheiden.

Mit Blick auf die Zukunft mögen diese Dinge heute unvorstellbar klingen. Doch wenn man sie tatsächlich erlebt, sind sie vielleicht erstaunlich, aber dennoch beherrschbar. Relativ betrachtet, vollzieht sich die Singularität Stück für Stück, und die Konvergenz erfolgt allmählich. Wir erklimmen den langen Bogen exponentiellen Wachstums der Technologie; nach vorn betrachtet fühlt es sich immer wie eine steile Senkrechte an, nach hinten betrachtet wie eine flache Linie, ist aber in Wirklichkeit eine sanfte Kurve. (Wenn wir im Jahr 2020 zurückblicken und sagen würden, dass wir 2025 kurz vor der AGI stehen würden, klingt das verrückt. Doch verglichen mit allem, was in den letzten fünf Jahren passiert ist, ist die Vorhersage heute vielleicht gar nicht so verrückt.)

Natürlich stehen wir noch vor vielen großen Herausforderungen. Wir müssen Sicherheitsprobleme auf technischer und sozialer Ebene lösen, aber danach ist es vor allem wichtig, die breite Zugänglichkeit von Superintelligenz zu gewährleisten, da sie eng mit der Wirtschaftsstruktur verknüpft ist. Der beste Weg dahin könnte die folgenden Schritte umfassen:

Zunächst müssen wir das „Ausrichtungsproblem“ lösen, das heißt, wir können sicherstellen, dass das KI-System lernen und unsere kollektiven wahren Wünsche langfristig umsetzen kann (soziale Medien sind ein Beispiel für ein Ausrichtungsversagen: Empfehlungsalgorithmen sind sehr gut darin, Sie zum Weiterscrollen zu bewegen, aber sie tun dies, indem sie die kurzfristigen Präferenzen des Gehirns ausnutzen, um Ihre langfristigen Ziele zu unterdrücken).

Konzentrieren Sie sich als Nächstes darauf, Superintelligenz kostengünstig, allgegenwärtig und frei von der zentralen Kontrolle einzelner Personen, Unternehmen oder Länder zu machen. Die Gesellschaft ist widerstandsfähig, kreativ und anpassungsfähig. Wenn wir den kollektiven Willen und die Weisheit freisetzen können, werden wir trotz Fehlern und Störungen schnell lernen und uns anpassen, um den Nutzen zu maximieren und die Risiken zu minimieren. Es wird entscheidend sein, den Nutzern innerhalb der gesellschaftlich vorgegebenen Rahmenbedingungen mehr Freiheit zu geben. Je früher die Welt eine Diskussion über diese Rahmenbedingungen und die Definition von „kollektiver Ausrichtung“ beginnt, desto besser.

Wir (die gesamte Branche, nicht nur OpenAI) entwickeln ein „Gehirn“ für die Welt. Dieses Gehirn wird hochgradig personalisiert und für jeden einfach zu bedienen sein; seine Grenzen werden durch unsere guten Ideen bestimmt. Lange Zeit hat die Technologie-Community über diese „Ideenmenschen“ gelacht – diejenigen, die eine Idee haben, sie aber nicht umsetzen können. Nun scheint ihre Zeit endlich gekommen zu sein.

OpenAI ist heute vieles, aber im Grunde immer noch ein Forschungsunternehmen für Superintelligenz. Wir haben noch viel zu tun, aber der Weg ist geebnet, und die Dunkelheit lichtet sich schnell. Wir sind unglaublich dankbar, dass wir das tun können.

„Smartphones sind fast kostenlos“ ist fast da. Es mag verrückt klingen, aber wenn wir Ihnen 2020 gesagt hätten, dass wir 2025 dort ankommen würden, würde es verrückter klingen, als wenn wir jetzt 2030 vorhersagen würden.

Mögen wir uns reibungslos, exponentiell und stetig in das Zeitalter der Superintelligenz bewegen.

#Willkommen beim offiziellen öffentlichen WeChat-Konto von iFanr: iFanr (WeChat-ID: ifanr), wo Ihnen so bald wie möglich weitere spannende Inhalte präsentiert werden.

iFanr | Originallink · Kommentare anzeigen · Sina Weibo