Der iPhone-Moment von Nvidia AI ist da

Auf der GTC-Konferenz im März warf Nvidia-CEO Huang Renxun heute den goldenen Satz „Die Zeit für das iPhone von AI ist gekommen“ aus.

Jetzt, nach Ablauf von fünf Monaten, ist es zutreffender zu sagen, dass Huang Renxuns goldener Satz vielleicht umgeschrieben werden kann als „Die Zeit für das iPhone von Nvidia AI ist gekommen.“

Die explosionsartige Entwicklung der generativen KI hat den Menschen einen Vorgeschmack auf die nächste Möglichkeit gegeben, und unzählige Technologiegiganten bemühen sich darum, in den Bereich der generativen KI einzusteigen und versuchen, diese technologische Tür voller Möglichkeiten zu öffnen.

Aber Ideen sind sehr subjektiv, die Realität ist sehr objektiv. Rechenleistung, Modelle und Daten waren schon immer die drei Hauptelemente der KI-Entwicklung. Die Rechenleistung, die durch KI-Chips repräsentiert wird, ist nicht nur der Grundpfeiler der künstlichen Intelligenz, sondern auch der Schlüssel die Tür zu dieser Technologie zu öffnen.

Und jetzt liegt der Schlüssel zur Zukunft in den Händen von Nvidia.

Der iPhone-Moment von Nvidia AI ist da - 100

Vor 58 Jahren schlug Gordon Moore, einer der Gründer von Intel, das berühmte Mooresche Gesetz vor, das auf den zwischen 1959 und 1965 gesammelten Daten über die Anzahl der Transistoren in integrierten Schaltkreisen basierte.

Die Anzahl der Transistoren, die auf einem integrierten Schaltkreis untergebracht werden können, verdoppelt sich etwa alle zwei Jahre.

Dann tauchten neue Hochrechnungen auf und der Zweijahreszeitraum wurde auf 18 Monate verkürzt.

Unter dem Einfluss des Mooreschen Gesetzes hat die Verarbeitungsleistung von CPU und GPU ein exponentielles Wachstum erreicht. Nach 2000 ist die CPU von Single-Core auf Multi-Core umgestiegen und die Anzahl der Kerne wurde stark erhöht.

Das Training und die Argumentation von AI Deep Learning basieren stark auf Matrixberechnungen und Gleitkommaberechnungen, was extrem hohe Anforderungen an die Rechenleistung stellt. GPUs sind in der Lage, umfangreiche parallele Berechnungen durchzuführen, übertreffen CPUs bei Matrix- und Vektorberechnungen bei weitem und sind es auch geworden die „High-Performance-Computing-Plattform“. Liebling“.

Darüber hinaus haben die Vorteile der Hochgeschwindigkeitsspeicherbandbreite, des skalierbaren Rechenleistungspools, des speziell optimierten Deep-Learning-Frameworks und der Unterstützung der Cloud-Bereitstellung auch die Kernposition der GPU-Rechenleistung im KI-Zeitalter fest etabliert.

Der iPhone-Moment von Nvidia AI ist da - 102

Nvidia wurde im April 1993 gegründet, begann mit GPUs und hat sich durch kontinuierliche Innovation und Entwicklung nach und nach zu einem führenden Unternehmen im Bereich Hochleistungsrechnen entwickelt.

Laut dem GPU-Marktstatistikbericht von Jon Peddie Research liegt Nvidia mit einem Marktanteil von 84 % an erster Stelle, gefolgt von AMD mit 12 % und Intel mit 4 %.

Sowohl A100 als auch H100 sind Nvidias Rechenzentrums-GPUs der Spitzenklasse, die speziell für KI-Computing entwickelt wurden. In Bezug auf das Training und die Argumentation großer neuronaler Netze übertrifft ihre Leistung die der anderen Wettbewerber bei weitem. Die beiden Ass-Chips in Nvidias Händen.

Der iPhone-Moment von Nvidia AI ist da - 103

Seit Anfang dieses Jahres konzentriert sich Nvidia auf „Je mehr Sie kaufen, desto mehr sparen Sie“ und hat sehr geschickt und „intim“ verschiedene iterativ aktualisierte GPUs auf den Markt gebracht.

Im März veröffentlichte Nvidia vier KI-Inferenzchips: H100 NVL GPU, L4 Tensor Core GPU, L40 GPU und NVIDIA Grace Hopper.

Zwei Monate später, auf der Taipei Computer Show im Mai, stellte Huang Renxun den Supercomputer DGX GH200 vor, der aus 256 NVIDIA GH200 Grace Hopper-Superchips besteht.

Erst vor zwei Wochen veröffentlichte Huang Renxun eine neue Version des GH200 Grace Hopper mit HBM3e-Speicher, der gleichzeitig der weltweit erste GPU-Chip mit HBM3e-Speicher ist.

Der iPhone-Moment von Nvidia AI ist da - 104

HBM3e-Speicher ist eine neue Art von Speichertechnologie mit hoher Bandbreite. In Bezug auf die Rechengeschwindigkeit kann HBM3e 50 % schneller sein als die HBM3-Rechengeschwindigkeit und bietet eine maximale Übertragungsrate von 5 TB/s.

Training und Argumentation sind zwei sehr wichtige Schritte von KI-Großmodellen, und genau darin ist GH200 gut. Nach Ansicht von Huang Renxun ist das typische Anwendungsszenario von GH200 in der Zukunft das große Sprachmodell, und „beschleunigtes Rechnen“ und „KI-Computing“ werden nach und nach das „allgemeine Computing“ traditioneller x86-GPUs ersetzen.

Der iPhone-Moment von Nvidia AI ist da - 105

Zahlreiche Fälle in der Vergangenheit haben gezeigt, dass Außenstehende im Wettbewerb die Oberhand gewinnen, wenn erst einmal ein hervorragendes Ökosystem in einen Wassergraben eingebaut ist.

Das starke Ökosystem von Nvidia erfordert natürlich die Siegelzertifizierung der Wettbewerber. Naveen Rao, ein Wissenschaftler für neuronale Netzwerke, war einst Vizepräsident und General Manager der Abteilung für Plattformen für künstliche Intelligenz bei Intel.

Er stellte fest, dass der größte Vorteil von Nvidia nicht nur der Chip selbst ist, sondern dass Nvidia über eine große Community und ein Vertriebszentrum mit einer großen Anzahl hervorragender Programmierer für künstliche Intelligenz verfügt.

CUDA ist eine Parallel-Computing-Plattform und ein Programmiermodell, das auf von Nvidia hergestellten GPUs basiert und deren Zweck darin besteht, mehr technischem Personal die Teilnahme an der Entwicklung zu ermöglichen.

Entwickler können CUDA-APIs über Hochsprachen wie C/C++ und Fortan aufrufen, um parallele Programmierung und Hochleistungsrechnen durchzuführen. Durch die Einrichtung dieses Ökosystems verlassen sich viele Entwickler auf CUDA.

Zuvor hatte Huang Renxun der Außenwelt mitgeteilt, dass CUDA weltweit mehr als 4 Millionen Entwickler und mehr als 3.000 Anwendungen hat und dass die kumulierten Downloads von CUDA 40 Millionen Mal erreicht haben. Es gibt 40.000 große Unternehmen auf der Welt, die NVIDIA-Produkte verwenden beschleunigtes Computing. 15.000 Startups basieren auf der NVIDIA-Plattform.

Die große Zahl spiegelt Nvidias erheblichen First-Mover-Vorteil wider. Wenn andere Konkurrenten neue Hardware auf den Markt bringen wollen, müssen sie auch darüber nachdenken, mit diesem bereits gebildeten Innovationsökosystem für künstliche Intelligenz gleichzuziehen.

Der iPhone-Moment von Nvidia AI ist da - 106

Die beiden Enden der Transaktion: Ein Ende ist mit dem Verkäufer und das andere Ende mit dem Käufer verbunden.

Im April unterzeichnete der „doppelte Maßstab“ Musk gemeinsam ein Verbot des KI-Trainings, während er heimlich 10.000 GPUs für die Entwicklung großer Modelle fegte, und erhob sogar öffentliche Beschwerden über X: „Es scheint, dass jeder und jeder Hund eine GPU kauft.“ ".

Letzten Monat sagte der Vorstandsvorsitzende von Oracle öffentlich, dass Oracle Milliarden von Dollar für den Kauf von Nvidias GPUs ausgeben würde, um Cloud-Computing-Dienste für eine neue Welle von Unternehmen der künstlichen Intelligenz zu erweitern.

Wer die Rechenleistung bekommt, gewinnt die Welt. Auf der generativen KI-Strecke, auf der man sich gegenseitig jagt, gibt es auch die Angst, im Land nach „Chips“ zu suchen.

Laut dem britischen „Financial Times“-Bericht kämpfen chinesische Internetgiganten darum, Nvidias leistungsstarke KI-Chips zu ergattern, mit Aufträgen im Wert von bis zu 5 Milliarden US-Dollar in diesem und im nächsten Jahr.

Unter ihnen haben Baidu, Tencent, Alibaba und ByteDance in diesem Jahr Zahlungsaufträge für insgesamt 1 Milliarde US-Dollar an Nvidia erteilt, insgesamt 100.000 A800 gekauft, was einem Preis von 10.000 US-Dollar pro A800-Chip entspricht, und die restlichen 400.000 Chips geliefert nächstes Jahr. Einhundert Millionen US-Dollar.

Es ist zu beachten, dass es sich beim A800 im Wesentlichen um eine „kastrierte Version“ des A100 handelt. Aufgrund der Auswirkungen der Richtlinie im August letzten Jahres kann Nvidia nur eine uneingeschränkte Alternativversion für den chinesischen Festlandmarkt auf den Markt bringen.

Der iPhone-Moment von Nvidia AI ist da - 108

Viele Leute in der Branche glauben, dass GPUs zu einem anerkannten knappen Gut auf dem Markt geworden sind und dass es auch in den nächsten ein oder zwei Jahren schwierig sein wird, die Situation schwer zu findender Chips zu entschärfen.

Aufgrund der kontinuierlichen Suche nach GPUs, die knapp sind, sind die GPUs von Nvidia für einige KI-Start-ups sogar zu einer harten Währung geworden.

Als Cloud-Computing-Startup war es für CoreWeave nicht einfach, einen Startup-Kredit zu bekommen. Aber „Schauen Sie nicht in das Gesicht des Mönchs, um das Gesicht des Buddha zu sehen“, dank Nvidias Investorenstatus kann CoreWeave sogar die H100-GPU als Sicherheit nutzen und problemlos einen Kredit von 2,3 Milliarden US-Dollar erhalten.

Aus Sicht des Kreditgebers wird es sich hierbei natürlich nicht um ein verlustbringendes Geschäft handeln.

Einerseits wird dieses Darlehen es CoreWeave ermöglichen, seinen Rechenumfang und seine Rechenleistung schnell zu erweitern und seine Fähigkeit zur Rückzahlung des Darlehens zu verbessern. Andererseits wird Nvidia im nächsten Jahr weitere iterative GPUs auf den Markt bringen. Darlehen, CoreWeave kann die Gelegenheit auch nutzen Schnapp dir GPUs.

Wie bereits erwähnt, ist die Situation von KI-Start-ups, die nicht stark sind, natürlich noch besorgniserregender, da die Top-Hersteller keine GPUs auf dem Markt ergattern können.

Der iPhone-Moment von Nvidia AI ist da - 109

Seitdem können sich einige intelligente KI-Startups nur dafür entscheiden, einen anderen Weg zu finden, zusammenzuhalten und in die Arme von Nvidia zu investieren.

Im Juni dieses Jahres gab das Startup für künstliche Intelligenz Inflection AI offiziell bekannt, dass es eine neue Finanzierungsrunde in Höhe von 1,3 Milliarden US-Dollar abgeschlossen hat. Es ist erwähnenswert, dass NVIDIA zum ersten Mal in der brandneuen Investitionsliste auftauchte.

Inflection AI gab bekannt, dass es mit den Partnern CoreWeave und NVIDIA den weltweit größten KI-Cluster aufbauen wird.

Die scheinbar glückliche Allianz ähnelt eher einer hilflosen Entscheidung. Mustafa Suleyman, CEO von Inflection AI, sagte in einem Interview mit der New York Times: „Das Unternehmen ist nicht verpflichtet, die Produkte von Nvidia zu verwenden, aber Wettbewerber haben keine brauchbaren Alternativen bereitgestellt.“

Tatsächlich setzt Inflection AI alles daran, einen fortschrittlichen Supercomputer zu bauen, der aus fast 700 Intel Xeon-CPUs in einem Rack-Server mit vier Knoten und 22.000 H100-GPUs besteht.

Eine solch große Anzahl an GPUs ist für andere beneidenswert, aber es ist schwer, die Leute nicht an Nvidias GPU-Prioritätsbereitstellungsstrategie zu erinnern: „Lassen Sie nicht zu, dass Fett und Wasser an Außenstehende fließen“.

Natürlich ist mit dem Frühlingswind der generativen KI das weltweite GPU-Angebot knapp und der Preis steigt. Auch Nvidia verdient mit dieser KI-Welle viel Geld.

Der iPhone-Moment von Nvidia AI ist da - 110

Ende letzten Jahres enthüllten Quellen Raymond James von der Investmentbank, dass die Kosten für die H100-GPU 3.320 US-Dollar (derzeit etwa 24.181 Yuan) betrugen, während Nvidia sich entschied, sie zu einem Preis von 25.000 bis 30.000 US-Dollar (derzeit etwa 182.000 Yuan) zu verkaufen bis 219.000 Yuan). Verkaufe diese GPUs.

Obwohl diese Aussage andere Kosten wie Transport und Logistik möglicherweise nicht berücksichtigt, sondern nur das Verhältnis von Produktionskosten zu Verkaufspreis berücksichtigt, ist die NVIDIA H100-GPU einfach eine „Super-Cash-Cow“.

Darüber hinaus plant Nvidia laut den ausländischen Medien Tomshardware, in diesem Jahr mehr als 550.000 H100-GPUs zu verkaufen. Wenn dies zutrifft, bedeutet dies, dass Nvidias Einnahmen allein mit der H100-GPU bereits astronomisch sind.

Die generative KI hat Nvidia noch mehr Überraschungen beschert.

Dieses Jahr ist Nvidias „Dreißigjähriges Jahr“. Am letzten Tag im Mai wurde Nvidia das weltweit erste Chipunternehmen mit einem Marktwert von mehr als 1 Billion US-Dollar. Dies ist auch das neunte Technologieunternehmen in der Geschichte, das den Marktwert von einer Billion US-Dollar erreichte Verein.

Aus dem Finanzbericht für das erste Geschäftsquartal des Geschäftsjahres 2024 geht hervor, dass Nvidias Umsatz im ersten Quartal 7,192 Milliarden US-Dollar betrug, was einer Steigerung von 19 % im Vergleich zu 6,051 Milliarden US-Dollar im Vorquartal entspricht, und dass der Nettogewinn 2,043 Milliarden US-Dollar betrug. Ergebnis je Aktie und Umsatz Beide übertrafen die Erwartungen der Wall-Street-Analysten.

Darüber hinaus wird erwartet, dass der am 24. dieses Monats veröffentlichte Gewinnbericht für das zweite Geschäftsquartal einen Umsatz von über 10 Milliarden US-Dollar erzielen wird. Bei Redaktionsschluss hat Nvidia einen Marktwert von 1,16 Billionen US-Dollar und ein Kurs-Gewinn-Verhältnis von 244,09 erreicht Zeiten. Die Wachstumsdynamik ist weiterhin optimistisch.

Der iPhone-Moment von Nvidia AI ist da - 112

Im Juni dieses Jahres wurde Jen-Hsun Huang, der ein Abschlusskleid trug, eingeladen, an der Abschlussrede der National Taiwan University teilzunehmen, und nutzte seine früheren Lebenserfahrungen, um eine Botschaft an die Absolventen zu senden!

Was auch immer es ist, gehen Sie ihm mit aller Kraft nach, rennen Sie! Gehen Sie nicht langsam.
Ob es darum geht, nach Nahrung zu rennen oder von anderen nicht als Nahrung behandelt zu werden.
Oft weiß man nicht, in welcher Situation man sich befindet, also rennt weiter, egal was passiert.

Die Chance der Geschichte ist vergänglich, und der GPU-Track ist dazu bestimmt, ein Gewinner zu sein, der alles bekommt.

Huang Renxun, der wild gelaufen ist, nutzte die Chance der KI und sorgte dafür, dass Nvidia, das aus einer Restaurantkette am Straßenrand hervorgegangen war, erfolgreich in den Billionen-Dollar-Club eintrat und der größte Gewinner dieser KI-Welle wurde und dies auch weiterhin tun wird führen diese Ära an.

#Willkommen beim offiziellen öffentlichen WeChat-Konto von Aifaner: Aifaner (WeChat-ID: ifanr). Weitere spannende Inhalte werden Ihnen so schnell wie möglich präsentiert.

Ai Faner | Ursprünglicher Link · Kommentare anzeigen · Sina Weibo