Intel hat gerade Nvidia angerufen

Es gab eine Zeit, in der Intel und Nvidia sich gegenseitig mehr oder weniger aus dem Weg gehen konnten. Diese Zeit ist vorbei, insbesondere da Intel in den GPU-Wettbewerb einsteigt und beide Unternehmen die KI vorantreiben.
Die neue Rivalität erreichte für Intel ihren Höhepunkt, als das Unternehmen auf einer Veranstaltung in New York City seine neuen Core Ultra- und Xeon-Chips der 5. Generation ankündigte. Pat Gelsinger, CEO von Intel, warf einen interessanten Blick auf die CUDA-Technologie von Nvidia. Ihm zufolge wird Inferenz die Bedeutung des Trainings für die KI übertreffen. Er stellte auch die langfristige Dominanz von Nvidias CUDA als Schnittstelle für Schulungen in Frage und hielt es für einen „flachen Burggraben, den die Branche gerne beseitigen möchte.“ Autsch. Das sind Kampfworte.
Für Uneingeweihte: CUDA ist die Abkürzung für Compute Unified Device Architecture und dient als parallele Computerplattform, die ausschließlich Nvidia-Grafikkarten zur Verfügung steht. Programmierer können CUDA-Bibliotheken nutzen, um die Rechenleistung von Nvidia-GPUs zu nutzen und so eine beschleunigte Ausführung von Algorithmen für maschinelles Lernen zu ermöglichen. Es ist wichtig zu beachten, dass diese Technologie proprietär und nicht Open Source ist, obwohl sie selbst so etwas wie ein Standard geworden ist.
Andererseits bewegen sich Branchenakteure wie MLIR, Google und OpenAI bereits auf eine „Pythonic-Programmierschicht“, um das KI-Training offener zu gestalten.
Während Intel den Schulungsaspekt nicht vernachlässigen wird, liegt der grundlegende Fokus auf dem Inferenzmarkt. „Wenn die Schlussfolgerung erfolgt, hey, sobald Sie das Modell trainiert haben … gibt es keine CUDA-Abhängigkeit. Es geht nur darum, ob Sie dieses Modell gut betreiben können?“ sagte Gelsinger .
Anschließend führte er neben Xeon- und Edge-PCs auch Gaudi 3 als Schlüsselkomponente für effektive Inferenz ein. Er würdigte zwar die Konkurrenz von Intel im Schulungsbereich, betonte jedoch, dass die Zukunft im Inferenzmarkt liege. Der CEO sprach auch über OpenVINO, den von Intel für seine KI-Bemühungen verwendeten Standard, und stellte sich eine Zukunft des Mixed Computing vor, bei der die Abläufe auf Cloud-Umgebungen und Personalcomputer verteilt sind.
Intel könnte hier etwas auf der Spur sein. Die Akzeptanz von KI ist auf einem Allzeithoch und der Bedarf an neuen Methoden zum Trainieren von KI wird von entscheidender Bedeutung sein, um Zeit und Ressourcen zu sparen. Es ist noch zu früh, um zu sagen, ob Intels Strategie CUDA besiegen wird. Die Tatsache, dass Intels neu eingeführte Meteor-Lake-CPUs über eine integrierte Neural Processing Unit (NPU) verfügen, macht deutlich, dass das Unternehmen die tiefgreifende Integration von KI in seine Produkte im Auge hat.
All dies kann berauschend sein, aber es ist klar, dass Nvidia bereits zu einer dominierenden Kraft in der Welt der KI geworden ist und aufgrund seines Erfolgs in diesem Bereich Anfang des Jahres den Billionen-Dollar-Status erreicht hat . Intel ist in letzter Zeit stärker auf den Fersen, und auch wenn Gelsingers Äußerungen ein gemeinsames Gefühl unter anderen Akteuren der Branche waren, fühlte sich die Kühnheit, Nvidia direkt anzuprangern, wie etwas an, was nur ein Außenseiter haben könnte.