Das „leistungsstärkste KI-Trainingssystem der Welt“ ist gerade online gegangen
Der Wettlauf um die KI-Vorherrschaft nimmt erneut Fahrt auf, als Elon Musk, CEO von xAI , über Twitter bekannt gab, dass sein Unternehmen am Wochenende seinen Colossus AI-Trainingscluster, den Musk als den „leistungsstärksten der Welt“ bezeichnet, erfolgreich online gestellt hat.
Dieses Wochenende hat das @xAI- Team unseren Colossus 100k H100-Trainingscluster online gestellt. Von Anfang bis Ende dauerte es 122 Tage.
Colossus ist das leistungsstärkste KI-Trainingssystem der Welt. Darüber hinaus wird sich die Größe in einigen Monaten auf 200.000 (50.000 H200) verdoppeln.
Exzellent…
– Elon Musk (@elonmusk) 2. September 2024
„An diesem Wochenende hat das @xAI-Team unseren Colossus 100k H100-Trainingscluster online gestellt. Von Anfang bis Ende dauerte es 122 Tage. Colossus ist das leistungsstärkste KI-Trainingssystem der Welt. Darüber hinaus wird sich die Größe in einigen Monaten auf 200.000 (50.000 H200) verdoppeln. Hervorragende Arbeit des Teams, von Nvidia und unserer vielen Partner/Lieferanten“, schrieb Musk in einem Beitrag auf X.
Musks „leistungsstärkste“ Behauptung basiert auf der Anzahl der vom System verwendeten GPUs. Mit 100.000 Nvidia H100-Prozessoren dürfte Colossus größer sein als jedes andere bisher entwickelte KI-System.
Musk begann im April 2023 mit dem Kauf Zehntausender GPUs, um die KI-Bemühungen seines Unternehmens zu beschleunigen, kurz nachdem er einen offenen Brief verfasst hatte , in dem er eine branchenweite sechsmonatige „Pause“ bei der KI-Entwicklung forderte. Im März dieses Jahres behauptete Musk , dass das Unternehmen KI nutzen würde, um „Manipulationen der öffentlichen Meinung auf Twitter zu erkennen und hervorzuheben“, obwohl der GPU-Supercomputer wahrscheinlich auch zum Trainieren seines großen Sprachmodells (LLM), Grok , genutzt werden wird.
Grok wurde 2023 von xAI als Reaktion auf den Erfolg von Konkurrenten wie ChatGPT, Gemini, Llama 3.1 und Claude eingeführt. Das Unternehmen veröffentlichte den aktualisierten Grok-2 im August als Beta. „Wir haben Grok-2 eingeführt und uns damit an die Spitze der KI-Entwicklung positioniert“, schrieb xAI kürzlich in einem Blogbeitrag . „Unser Fokus liegt auf der Weiterentwicklung der Kernkompetenzen unseres neuen Rechenclusters. Wir werden in den kommenden Monaten noch viele weitere Entwicklungen zu berichten haben.“
Musk behauptet, dass er Tesla auch zu einem „Führer in KI und Robotik“ entwickeln kann. Ein aktueller Bericht von CNBC deutet jedoch darauf hin, dass Musk Lieferungen von Nvidias begehrten GPUs vom Elektroautohersteller auf xAI und Twitter umgeleitet hat. Dies könnte Teslas Bemühungen, die für die Entwicklung seiner autonomen Fahrzeugtechnologie und des humanoiden Roboters Optimus erforderlichen Rechenressourcen zu installieren, verzögern.
„Elon priorisiert die Bereitstellung von X-H100-GPU-Clustern bei X gegenüber Tesla, indem er 12.000 der ursprünglich für Tesla vorgesehenen H100-GPUs stattdessen auf „Im Gegenzug sollen die ursprünglichen X-Bestellungen von 12.000 H100 für [Januar] und Juni an Tesla weitergeleitet werden.“