Wuwen Core Dome hat eine heterogene Chip-Hybrid-Trainingsplattform im Kilocard-Maßstab veröffentlicht und zielt darauf ab, die kostengünstigste KI-Infrastruktur 2024 zu schaffen
Welche Rolle spielt Infrastruktur im KI-Zeitalter? Manche sagen, es sei wie Elektrizität, andere sagen, es sei wie Wasser.
Wuwen Xinqiong glaubt, dass eine hervorragende Infrastruktur eine Art „Magie“ ist, die die Kosten großer Modelle effektiv senken und es mehr Menschen ermöglichen kann, neue Technologien zu nutzen.
Am 4. Juli veröffentlichte Xia Lixue, Mitbegründer und CEO von Wuwen Core Dome, die weltweit erste heterogene Kilokalorien-Hybrid-Trainingsplattform. Die Rechenleistungsauslastung des heterogenen Kilokalorien-Hybrid-Trainingsclusters erreichte ein Maximum von 97,6 %.
Vor vier Monaten kündigte die Infini-AI-Cloud-Plattform für große Modelle von Wuwen Core Dome ihre erste öffentliche Beta an. Kunden von großen Modellunternehmen wie Zhipu AI, Dark Side of the Moon und Shengshu Technology nutzen Infini-AI stabil. In Bezug auf die Rechenleistung gibt es mehr als 20 KI-Native-Anwendungs-Startups, die weiterhin verschiedene voreingestellte Modell-APIs auf Infini-AI aufrufen und die von Wuwen Core Dome bereitgestellte Toolkette nutzen, um ihre eigenen Geschäftsmodelle zu entwickeln.
Der Aufbau einer KI-nativen Infrastruktur im Zeitalter großer Modelle kann KI-Entwicklern nicht nur eine vielseitigere, effizientere und komfortablere Forschungs- und Entwicklungsumgebung bieten, sondern ist auch ein wichtiger Eckpfeiler für die effektive Integration von Rechenressourcen und die Unterstützung der nachhaltigen Entwicklung der KI Industrie. Verglichen mit dem „relativ konzentrierten“ Muster von Modellschichten und Chipschichten auf der Welt sind Chinas Modellschichten und Chipschichten vielfältiger.
Vielfalt bedeutet jedoch auch Herausforderungen. Eine große Anzahl heterogener Chips hat auch „ökologische Silos“ gebildet. Verschiedene Hardware-Ökosysteme sind geschlossen und untereinander inkompatibel, was eine Reihe technischer Herausforderungen für Nutzer von Rechenleistung mit sich bringt. Dies stellt die größte Schwierigkeit beim Aufbau einer KI-nativen Infrastruktur dar und ist auch ein wichtiger Grund, warum die aktuelle große Modellindustrie mit einem „Rechenleistungsmangel“ konfrontiert ist.
Wuwen Core Qiong verfügt über erstklassige KI-Computing-Optimierungsfunktionen und Rechenleistungslösungsfunktionen sowie eine zukunftsweisende Beurteilung der Branchenmuster „M-Typen von Modellen“ und „N-Typen von Chips“ und hat die Führung beim Aufbau übernommen „MxN“-Mittelschicht-Ökomuster zur Erzielung einer effizienten und einheitlichen Bereitstellung mehrerer großer Modellalgorithmen auf mehreren Chips.
Bisher hat Infini-AI mehr als 30 Modelle wie Qwen2, GLM4, Llama3, Gemma, Yi, Baichuan2, ChatGLM3-Serie usw. sowie AMD, Huawei Shengteng, Biren, Cambrian, Suiyuan, Haiguang und Tianshu unterstützt Es gibt mehr als 10 Arten von Computerkarten, darunter Zhixin, Muxi, Moore Thread und NVIDIA.
„Es gibt keinen Widerspruch zwischen der Anhebung der technischen Obergrenze und der Verbreitung von Technologie, und es hängt davon ab, wie wir entschlossen sind, mit dieser Technologie umzugehen.“ Xia Lixue sagte: „Wann wir in Zukunft verschiedene KI-Anwendungen nutzen, werden wir es nicht wissen.“ welche Basismodelle es aufruft und welche Modelle verwendet werden. Welche Art von Beschleunigerkarte hat die Rechenleistung – das ist die beste AI Native-Infrastruktur.“
# Willkommen beim offiziellen öffentlichen WeChat-Konto von aifaner (WeChat-ID: ifanr). Weitere spannende Inhalte werden Ihnen so schnell wie möglich zur Verfügung gestellt.
Ai Faner |. Ursprünglicher Link · Kommentare anzeigen · Sina Weibo