Ob es Ihnen gefällt oder nicht, Nvidia hat auf der CES 2025 die Show gestohlen
Großartig, hier erzählt mir der berechtigte Journalist, dass die 2.000-Dollar-Grafikkarte die CES 2025 gewonnen hat. Ich habe viele starke Meinungen zu Nvidias CES-Ankündigungen online gesehen, aber selbst wenn man den überhöhten Preis der neuen RTX 5090 außer Acht lässt, hat Nvidia die diesjährige Show gewonnen. Und es hat irgendwie standardmäßig gewonnen. Zwischen Intels Barebone-Ankündigungen und einer überladenen AMD-Präsentation, die AMDs vielleicht wichtigste GPU-Einführung aller Zeiten ignorierte , ist es nicht verwunderlich, dass Team Green die Nase vorn hatte.
Aber das ist trotz des wahnsinnigen Preises der RTX 5090 , nicht wegen ihr.
Nvidia stellte eine neue Grafikkartenreihe und die beeindruckende Multi-Frame-Generation DLSS 4 vor, aber die Ankündigungen in diesem Jahr waren viel bedeutender. Alles hängt davon ab, wie Nvidia KI nutzt, um PC-Spiele besser zu machen, und die Früchte dieser Arbeit zahlen sich möglicherweise nicht sofort aus.
Es gibt Tools für Entwickler wie Neural Materials und Neural Texture Compression, die Nvidia in seiner Keynote zur CES 2025 kurz angesprochen hat. Das Herausragende für mich sind jedoch die neuronalen Shader. Sie sind sicherlich nicht so aufregend wie eine neue Grafikkarte, zumindest oberflächlich betrachtet, aber neuronale Shader haben enorme Auswirkungen auf die Zukunft von PC-Spielen. Auch ohne die RTX 5090 ist allein diese Ankündigung für Nvidia bedeutend genug, um dieses Jahr die Show zu stehlen.
Neuronale Shader sind kein Schlagwort, aber angesichts der Zwangsernährung der KI, die wir alle in den letzten Jahren erlebt haben, verzeihe ich Ihnen, dass Sie das denken. Beginnen wir zunächst mit dem Shader. Falls Sie es nicht wissen: Shader sind im Wesentlichen die Programme, die auf Ihrer GPU ausgeführt werden. Vor Jahrzehnten gab es Shader mit fester Funktion; Sie konnten nur eines tun. In den frühen 2000er Jahren führte Nvidia programmierbare Shader ein, die über weitaus größere Fähigkeiten verfügten. Jetzt beginnen wir mit neuronalen Shadern.
Kurz gesagt, neuronale Shader ermöglichen es Entwicklern, dem Shader-Code kleine neuronale Netze hinzuzufügen. Wenn Sie dann ein Spiel spielen, können diese neuronalen Netze auf den Tensorkernen Ihrer Grafikkarte bereitgestellt werden. Es setzt eine Menge Rechenleistung frei, die bisher in PC-Spielen nur in relativ geringem Umfang zum Einsatz kam. Sie waren einfach nur Feuer und Flamme für DLSS.
Nvidia hat bisher angekündigte Anwendungen für neuronale Shader – die oben genannten Neural Materials und Neural Texture Compression sowie Neural Radiance Cache. Ich fange mit dem letzten an, weil es das interessanteste ist. Der Neural Radiance Cache ermöglicht es der KI im Wesentlichen, zu erraten, wie eine unendliche Anzahl von Lichtreflexionen in einer Szene aussehen würde. Jetzt kann die Pfadverfolgung in Echtzeit nur noch eine begrenzte Anzahl von Lichtreflexionen verarbeiten. Ab einem gewissen Punkt wird es zu anspruchsvoll. Laut Nvidia ermöglicht Neural Radiance Cache nicht nur eine realistischere Beleuchtung mit weitaus mehr Sprüngen, sondern verbessert auch die Leistung. Das liegt daran, dass nur ein oder zwei Lichtreflexionen erforderlich sind. Der Rest wird aus dem neuronalen Netzwerk abgeleitet.
In ähnlicher Weise komprimiert Neural Materials dichten Shader-Code, der normalerweise für das Offline-Rendering reserviert wäre, sodass das, was Nvidia als „Filmqualität“ bezeichnet, in Echtzeit gerendert werden kann. Die neuronale Texturkomprimierung wendet KI auf die Texturkomprimierung an, was laut Nvidia im Vergleich zur herkömmlichen blockbasierten Komprimierung das Siebenfache an Speicher einspart, ohne dass es zu Qualitätsverlusten kommt.
Das sind nur drei Anwendungen neuronaler Netze, die in PC-Spielen eingesetzt werden, und es gibt bereits große Auswirkungen darauf, wie gut Spiele laufen und wie gut sie aussehen können. Es ist wichtig, sich daran zu erinnern, dass dies auch der Ausgangspunkt ist – AMD, Intel und Nvidia haben jetzt alle KI-Hardware auf ihren GPUs, und ich vermute, dass es noch viel Entwicklung geben wird, welche Arten von neuronalen Netzwerken in einen Shader integriert werden können in der Zukunft.
Möglicherweise gibt es Stoff- oder Physiksimulationen, die normalerweise auf der CPU ausgeführt werden und über ein neuronales Netzwerk auf Tensorkernen ausgeführt werden können. Oder vielleicht können Sie die Komplexität von Netzen erhöhen, indem Sie auf Dreiecke schließen, die die GPU nicht berücksichtigen muss. Es gibt sichtbare Anwendungen von KI, beispielsweise durch nicht spielbare Charaktere, aber neuronale Shader eröffnen eine Welt unsichtbarer KI, die das Rendering effizienter und damit leistungsfähiger macht.
Es ist leicht, sich in der Soße der CES zu verlieren. Wenn Sie jeder Keynote von Führungskräften glauben würden, würden Sie buchstäblich Tausende von „bahnbrechenden“ Innovationen hervorbringen, die es kaum schaffen, auch nur ein Fleckchen Erde zu bewegen. Neuronale Shader passen nicht in diese Kategorie. Es gibt bereits drei sehr praktische Anwendungen neuronaler Shader, die Nvidia einführt, und Leute, die viel schlauer sind als ich, werden sich wahrscheinlich noch Hunderte weitere ausdenken.
Ich sollte jedoch klarstellen, dass das nicht sofort passieren wird. Wir sehen nur die Oberfläche dessen, wozu neuronale Shader in der Zukunft fähig sein könnten, und selbst dann wird es wahrscheinlich noch mehrere Jahre und Grafikkartengenerationen dauern, bis ihre Wirkung spürbar wird. Aber wenn man sich die Ankündigungen von AMD, Nvidia und Intel ansieht, stellt nur ein Unternehmen etwas vor, das den Titel „bahnbrechend“ wirklich verdienen könnte, und das ist Nvidia.