Die nächsten GPUs von Nvidia werden teilweise von KI entworfen

Während der GTC 2022 -Konferenz sprach Nvidia über den Einsatz von künstlicher Intelligenz und maschinellem Lernen, um zukünftige Grafikkarten besser als je zuvor zu machen.

Da sich das Unternehmen dafür entscheidet, KI und maschinelles Lernen (ML) zu priorisieren, werden einige dieser Fortschritte bereits Eingang in die kommenden Ada Lovelace-GPUs der nächsten Generation finden.

Nvidia-Logo aus Mikrochips.

Nvidias große Pläne für KI und ML in Grafikkarten der nächsten Generation wurden von Bill Dally , dem leitenden Wissenschaftler und Senior Vice President of Research des Unternehmens, geteilt. Er sprach über die Forschungs- und Entwicklungsteams von Nvidia, wie sie KI und maschinelles Lernen (ML) nutzen und was dies für GPUs der nächsten Generation bedeutet.

Kurz gesagt, der Einsatz dieser Technologien kann für Nvidia-Grafikkarten nur Gutes bedeuten. Dally erörterte vier Hauptabschnitte des GPU-Designs sowie die Möglichkeiten, wie die Verwendung von KI und ML die GPU-Leistung drastisch beschleunigen kann.

Das Ziel ist eine Steigerung sowohl der Geschwindigkeit als auch der Effizienz, und Dallys Beispiel spricht darüber, wie die Verwendung von KI und ML eine standardmäßige GPU-Designaufgabe von drei Stunden auf nur drei Sekunden verkürzen kann.

Möglich wird dies angeblich durch die Optimierung von bis zu vier Prozessen, die normalerweise viel Zeit in Anspruch nehmen und sehr detailliert sind.

Dies bezieht sich auf die Überwachung und Kartierung von Leistungsspannungsabfällen, die Vorhersage von Fehlern durch parasitäre Vorhersage, die Standardautomatisierung der Zellmigration und die Bewältigung verschiedener Routing-Herausforderungen. Der Einsatz von künstlicher Intelligenz und maschinellem Lernen kann dazu beitragen, all diese Prozesse zu optimieren, was zu erheblichen Verbesserungen des Endprodukts führt.

Die Zuordnung potenzieller Spannungsabfälle hilft Nvidia, den Leistungsfluss von Grafikkarten der nächsten Generation zu verfolgen. Laut Dally kann der Wechsel von der Verwendung von Standard-Tools zu spezialisierten KI-Tools diese Aufgabe drastisch beschleunigen, da die neue Technologie solche Aufgaben in nur wenigen Sekunden erledigen kann.

Dally sagte, dass die Verwendung von KI und ML zur Abbildung von Spannungsabfällen die Genauigkeit um bis zu 94 % erhöhen und gleichzeitig die Geschwindigkeit, mit der diese Aufgaben ausgeführt werden, enorm steigern kann.

Nvidias Folie zur automatisierten Zellmigration.
NVIDIA

Der Datenfluss in neuen Chips ist ein wichtiger Faktor für die Leistung einer neuen Grafikkarte. Daher verwendet Nvidia Graph Neural Networks (GNN), um mögliche Probleme im Datenfluss zu identifizieren und schnell zu beheben.

Die Parasitenvorhersage durch den Einsatz von KI ist ein weiterer Bereich, in dem Nvidia Verbesserungen sieht, wobei eine erhöhte Genauigkeit festgestellt wird, wobei die Simulationsfehlerraten unter 10 Prozent fallen.

Nvidia hat es auch geschafft, den Prozess der Migration der Standardzellen des Chips zu automatisieren, wodurch viele Ausfallzeiten reduziert und die gesamte Aufgabe beschleunigt werden. Damit wurden 92 % der Zellbibliothek durch den Einsatz eines Tools fehlerfrei migriert.

Das Unternehmen plant, sich in Zukunft auf KI und maschinelles Lernen zu konzentrieren und fünf seiner Labore der Erforschung und Entwicklung neuer Lösungen in diesen Segmenten zu widmen. Dally deutete an, dass wir die ersten Ergebnisse dieser neuen Entwicklungen in Nvidias neuen 7-nm- und 5-nm-Designs sehen könnten, zu denen auch die kommenden Ada Lovelace-GPUs gehören. Dies wurde zuerst von Wccftech gemeldet.

Es ist kein Geheimnis, dass die nächste Generation von Grafikkarten, oft als RTX 4000 bezeichnet, extrem leistungsstark sein wird ( mit entsprechenden Leistungsanforderungen ). Die Verwendung von KI und maschinellem Lernen zur Weiterentwicklung dieser GPUs impliziert, dass wir bald ein echtes Kraftpaket in unseren Händen haben könnten.