Warum müssen Sie so lange warten, um ChatGPT und neue Bing-Konten zu beantragen?
Letzte Woche haben AIGC-Änderungen die Welt verrückt gemacht, jeden Tag aufzuwachen, könnte eine „neue Welt“ sein.
Aber aus einer anderen Perspektive, egal wie intelligent und disruptiv AIGC ist, befinden wir uns immer noch in der „alten Welt“, oder um genau zu sein, es sollte die „alternative“ Welt sein.
Nicht nur das neue Bing, Github Copilot X, ChatGPT-Plug-ins, Midjourney V5, Adobes Firefly und sogar Baidus Wenxin Yiyan, Sie müssen sich auf die Warteliste setzen, um auf einen Platz zu warten, bevor Sie ihn erleben. Dieser Prozess ist dem Rationierungssystem der Planwirtschaft sehr ähnlich.
Mit immer mehr AIGC-Diensten, einschließlich des Upgrades des ursprünglichen GPT-4 und Midjourney V5, scheint die Wartelistenzeit verlängert zu werden.
▲ Zwischendurch V5
Bis heute gibt es noch einige Leute auf der neuen Warteliste von Bing, ganz zu schweigen von anderen neueren generativen KI-Erfahrungen.
Vielleicht war es ein stiller Widerstand gegen die unausgesprochenen Regeln der Warteliste: Jemand hat eine Website erstellt, die „alle Warteschlangen mit einem Klick in die Warteschlange stellt“.
Aber die Ironie ist, dass die „Ein-Klick-Join“-Funktion noch nicht abgeschlossen ist, Sie müssen sich zuerst auf die Warteliste setzen, und das Domainnamensuffix der Website ist wtf, was voller Ressentiments ist.
Hinter der Warteliste steht ein stabiler Service
Als ich Bing diese Frage stellte, fand Bing auf den drei Seiten der offiziellen Website von OpenAI vier Gründe.
- Begrenzen Sie die Anzahl der Benutzer, um die Servicequalität und -stabilität sicherzustellen.
- Sammeln Sie Benutzerfeedback, um Servicefunktionen und -erfahrung zu verbessern.
- Erhöhen Sie die Erwartungen und das Gefühl der Teilnahme der Benutzer und verbessern Sie die Popularität und den Ruf des Dienstes.
- Filtern Sie Benutzer aus, die der Zielgruppe entsprechen, verbessern Sie die Service-Conversion-Rate und die Retention-Rate.
Und dies entspricht eher einigen offiziellen Worten von OpenAI, Microsoft, Google und anderen großen Unternehmen für unbestimmtes Warten.
Relativ gesehen hat ChatGPT, das als erstes an die Öffentlichkeit ging, mit dem Upgrade des Modells und der erheblichen Preissenkung viele Schwankungen im Dienst von ChatGPT erfahren.
Stabilitätsprobleme wie das Verschlucken von Q&A-Aufzeichnungen, Ausfallzeiten und Verwirrung in der Q&A-Liste.
Auch das neue Bing auf Basis von OpenAI hat eine übertriebene Rhetorik, Microsoft limitiert bisher auch die Anzahl und Länge der Konversationen im neuen Bing.
Man könnte argumentieren, dass die Begrenzung der Anzahl der Personen, die ChatGPT und das neue Bing verwenden, eine stabilere und schnellere Antwort und Generierung von Inhalten bietet.
Aber Sie müssen wissen, dass diese Funktionen und Dienste bereits erhebliche Ressourcen verbraucht haben und fast die Hälfte der Rechenleistung von Microsoft Azure in Anspruch nehmen.
Derzeit hat AIGC noch keine Super-Apps eingeführt und befindet sich immer noch in einem Prozess der schnellen Iteration, und man kann sogar sagen, dass es sich noch um eine Beta-Testversion handelt.
Die Interaktion mit KI über herkömmliche Dialogfelder passt nicht ganz zu der Situation, in der 2023 jeder ein Smartphone haben wird.
AIGC kann jetzt nur noch als Funktion betrachtet werden, und der kommende Copilot, Firefly usw. sind eher wie Produkte.
▲ Copilot-Funktion von Office 365
Aber sie sind immer noch nicht für die Öffentlichkeit zugänglich und liegen einer nach dem anderen auf der Warteliste.
Microsoft, Google und Adobe "polieren" aus gewisser Sicht immer noch ihre eigenen Produkte, aber aus anderer Sicht, wenn sie die Tür für alle öffnen wollen oder sagen, dass KI zum Copiloten aller wird, tun sie es immer noch müssen einen "Flaschenhals" durchbrechen.
Der boomende AIGC könnte anfangen, den Engpass zu erreichen
Der „Flaschenhals“ ist hier nicht die äußere Manifestation, die Ethik, Gesetze und Vorschriften, denen die generative KI begegnet, oder die Genauigkeit ihrer Reaktion.
Stattdessen ist es die Hardware hinter der KI, die Rechenleistung bereitstellt, sowie verschiedene Cloud-Computing-Leistungen für das Training.
Microsoft investiert weiterhin stark in OpenAI, investiert sukzessive Milliarden von Dollar und entwickelt nach und nach neues Bing auf Basis von GPT-4 und ein neues Office, das sich noch auf der Warteliste befindet.
Gleichzeitig, um sicherzustellen, dass das neue bing und das spätere neue Office mit Copilot-Funktion stabil und schnell reagieren können.
Microsoft stellt und reserviert auch die Hälfte der Rechenleistung und Rechenkapazität seines Cloud-Dienstes Azure.
Dies hat auch zu Spannungen bei Microsofts internen Azure-Computing-Ressourcen geführt. The Information befragte interne Mitarbeiter von Microsoft.Für begrenzte Hardware-Computing-Ressourcen implementiert Microsoft ein internes Hardware-Wartelistensystem.
Andere Teams und Abteilungen innerhalb von Microsoft, die Modelle für maschinelles Lernen entwickeln, wollen die KI-Cloud-Dienste von Azure aufrufen, sie müssen Schritt für Schritt genehmigt und gemeldet und schließlich von einem Vizepräsidenten entschieden werden.
So wie wir anstehen, um neue generative KI-Dienste zu erleben, warten neben neuem Bing und neuen Office- und OpenAI-Diensten auch andere Microsoft-Abteilungen auf überschüssige Cloud-Computing-Power von Azure.
Allerdings sind mit Microsofts All in OpenAI-Strategie auch die Rechenleistung und Kapazität der Azure-Cloud sehr knapp bemessen.
Neben internen Anrufen bietet Azure auch verschiedene Produkte und Dienste an, darunter KI, Computing, Container, Hybrid Cloud, Internet of Things usw.
Als Anbieter von Cloud-Diensten ist Azure in mehr als 60 Regionen auf der ganzen Welt expandiert, und seine Einnahmen aus externen Serverprodukten und Cloud-Diensten machen 36 % des Gesamtumsatzes von Microsoft aus.
Ähnlich wie das interne Team von Microsoft sind jedoch auch Kunden, die Azure kaufen, von der begrenzten Rechenleistung betroffen, insbesondere wenn sie Azure OpenAI aufrufen möchten, müssen sie sich dennoch auf die Warteliste setzen.
Ab etwa Ende 2022 plant Microsoft, weitere Hardware (GPU oder TPU) hinzuzufügen, um mehr Rechenleistung zu erweitern.
Außerdem wurde mit Nvidia eine Vereinbarung getroffen, Azure zehntausende H100-GPU-Computing-Karten hinzuzufügen, um ein höheres KI-Training und eine effizientere Argumentation für die nachfolgende OpenAI zu ermöglichen.
Derzeit haben Microsoft und Nvidia jedoch die Bereitstellung von H100 in Azure nicht offengelegt, und nur eine kleine Anzahl von Teams innerhalb von Microsoft hat Zugriff auf H100 (höchstwahrscheinlich neues Bing und Office), und die meisten Abteilungen sind immer noch ausgeschlossen.
Der ungefähre Preis für ein Stück H100 kann etwa 240.000 Yuan betragen.Wenn dies als Referenz verwendet wird, muss Microsoft Hunderte von Millionen Dollar investieren, um die Kapazität von Azure zu erweitern.
Nicht nur Microsoft, sondern auch Cloud-Dienstleister wie Google und Oracle investieren massiv in Hardware wie GPUs, um ihre Cloud-Dienste zu erweitern und sich auf die Rechenleistung vorzubereiten, bevor die AIGC komplett ausbricht.
▲ Huang Renxun, CEO von Nvidia, und Ilya Sutskever, Mitbegründer und Chefwissenschaftler von OpenAI
Von der Veröffentlichung von GTC 2022 bis heute hat Nvidia jedoch die Lieferung und den Verkauf von H100 nicht angekündigt, und es ist nicht bekannt, ob Microsofts Expansionsplan für Azure wirksam sein wird.
In der diesjährigen GTC 2023 brachte Nvidia keine Fortschritte bei H100- und A100-Hardware, betonte jedoch Nvidias Vorteile bei Cloud-Computing-Hardware.
Und sein Chief Technology Officer begann auch zu betonen, dass „Kryptowährung keinen positiven Beitrag zur Gesellschaft leistet“, und begann auch von der Seite zu betonen, dass das AIGC-Feld der Bereich sein wird, auf den sich Nvidia in den nächsten 30 Jahren konzentrieren wird.
Mit der kontinuierlichen Iteration des AIGC-Felds ab etwa Oktober 2022 wird auch die Aktie von Nvidia steigen und den vorherigen Geschäftsrückgang, der durch die Rezession der Kryptowährung verursacht wurde, hinwegfegen.
Derzeit hat der Marktwert von Nvidia einen Höhepunkt erreicht, der fast der Summe der Marktwerte von Intel, AMD und ARM entspricht.
Allerdings scheint ein so hoher Marktwert das Angebot an Hardware nicht zu verbessern, im Gegenteil, da große Unternehmen wie Google und Microsoft unabhängig von Kosten und Ressourcen in Cloud-Computing-Hardware investieren, so die bisherige Angebotslage von Nvidia Es ist sehr wahrscheinlich, dass es eine weitere Panik bei industriellen Grafikkarten geben wird.
Nicht nur der Hardware-Versorgungsstand, sondern auch die aus diesen Hochleistungs-GPUs zusammengesetzte Rechenmatrix ist leistungsstark: Die Leistung einer einzelnen H100-Rechenkarte mit SXM-Schnittstelle erreicht 700 W.
Der Stromverbrauch von Rechenzentren für das Training von KI-Modellen und die Verarbeitung großer Datenmengen ist tatsächlich ziemlich erschütternd.
Im Jahr 2021 haben David Patterson und Joseph Gonzalez von der University of California gezeigt , dass das Training von GPT-3 ungefähr 1,287 Gigawattstunden Strom verbrauchen wird, was dem jährlichen Stromverbrauch von 120 amerikanischen Haushalten entspricht.
Gleichzeitig stellte das Papier auch fest, dass das Training von GPT-3 502 Tonnen CO2-Emissionen verursachen würde, was den jährlichen Emissionen von 110 Autos entspricht.
Sie betonten auch, dass dies nur die Schulungskosten eines Modells sind, und wenn es den Markt überschwemmt, wird es auch mehr Ressourcen verbrauchen, die höher sein können als die Schulungskosten.
GPT-3 von OpenAI verwendet 175 Milliarden Parameter oder Variablen, während die Parameter von GPT-4 auf 175 Milliarden bis 280 Milliarden geschätzt werden. Beim Energieverbrauch wird die Nachfrage nach Cloud Computing nur noch zunehmen.
Zu diesem Zweck sagte OpenAI-CEO Sam Altman in einem Interview mit The Verge, dass OpenAI nach effektiven Wegen suche, um die Leistung und Sicherheit des Modells zu verbessern.
Mit anderen Worten, OpenAI versucht auch, Hardware- und Energieressourcen für das Training und Ausführen von Modellen durch effizientere Algorithmen einzusparen.
Der Wartelistenmechanismus stellt aus einer oberflächlichen Perspektive die aktuelle AIGC-Erfahrung und die Reaktionsgeschwindigkeit der zugehörigen Dienste sicher.
Aber auf einer tieferen Ebene ist es auch ein Ressourcenkampf, ein Wettbewerb zwischen Rechenleistung und Kapazität von Cloud-Rechenzentren mit GPUs und TPUs als Kern, und ein Wettbewerb mit hohen Investitionen und hohem Energieverbrauch auf Makroebene.
Bisher befindet sich AIGC noch in einer „blinden Box“-Phase, und der Bedarf und die Besetzung von Ressourcen sind noch unklar.
Das Stehen in der Warteliste verschiedener KI-Dienste ist jedoch sehr ähnlich wie in Science-Fiction-Filmen, in denen die Menschen ständig anstehen, um die KI-gesteuerte Fabrik zu betreten und die für ihren Betrieb erforderlichen Ressourcen bereitzustellen.
Warteliste ist die Warteliste in der virtuellen Welt und kann in Zukunft auch eine Warteschlange für KI in der realen Welt sein.
#Willkommen, auf Aifaners offizielles öffentliches WeChat-Konto zu achten: Aifaner (WeChat-ID: ifanr). Weitere spannende Inhalte werden Ihnen so bald wie möglich präsentiert.
Ai Faner | Ursprünglicher Link · Kommentare anzeigen · Sina Weibo