Der 200-Dollar-Minicomputer Jetson Orin Nano von Nvidia ist 80-mal schneller als die Vorgängerversion
Nvidia kündigte heute während seiner GTC 2022-Keynote die bevorstehende Veröffentlichung des Jetson Orin Nano an, eines System-on-Module (SOM), das die nächste Generation von KI und Robotik der Einstiegsklasse antreiben wird.
Laut Nvidia bietet diese neue Version eine 80-fache Leistungssteigerung gegenüber dem 99-Dollar-Jetson Nano . Die Originalversion wurde 2019 veröffentlicht und diente als einfacher Einstieg in die Welt der KI und Robotik, insbesondere für Bastler und MINT-Studenten. Diese neue Version soll die Leistung ernsthaft steigern.
Ein System-on-Module (auch als Computer-on-Module bezeichnet) verfügt über eine einzelne Platine mit einem Mikroprozessor. Es hat auch Speicher und Ein-/Ausgänge (IOs) und hat normalerweise eine Trägerplatine. Es ist nicht dasselbe wie ein System-on-a-Chip (SOC), wohlgemerkt – ein SOM ist platinenbasiert und kann Platz für zusätzliche Komponenten bieten; es könnte sogar einen SOC beinhalten. Kurz gesagt, ein SOM ist eine gebrauchsfertige Computerlösung, aber kein vollständiger Computer.
Lassen Sie uns, nachdem die technischen Einzelheiten geklärt sind, über Nvidias neueste Entwicklung, den Jetson Orin, sprechen, der mit sechs Orin-basierten Produktionsmodulen auf den Markt kommt, die für die Handhabung von KI- und Robotikanwendungen zu einem erschwinglichen Preis entwickelt wurden. Darunter ist der Nvidia Jetson Orin Nano.
Obwohl der Jetson Orin Nano der Jetson SOM mit dem kleinsten Formfaktor ist, kann er bis zu 40 Billionen Operationen pro Sekunde (TOPS) von KI-bezogenen Aufgaben bewältigen. Die Leistung erreicht mit dem AGX Orin neue Höhen und bietet 275 TOPS, um fortschrittliche autonome Maschinen zu handhaben.
Nvidias Jetson Orin kommt mit einer Ampere-basierten GPU, einer ARM-basierten CPU und multimodaler Sensorunterstützung. Es ist auch vollständig kompatibel mit den Orin NX-Modulen von Nvidia, einschließlich vollständiger Emulationsunterstützung, die es den Kunden von Nvidia ermöglicht, um mehrere Jetson-Module herum zu entwerfen. Zu den weiteren Vorteilen gehört die Unterstützung mehrerer gleichzeitiger KI-Anwendungspipelines mit schnellen Eingaben und Ausgaben.
Die Jetson Orin Nano-Module wird es in zwei Varianten geben, eine mit 8 GB Speicher und bis zu 40 TOPS und eine mit 4 GB Speicher und bis zu 20 TOPS. Beim Stromverbrauch braucht der SOM so gut wie nichts: Ersteres benötigt zwischen 7 Watt und 15 Watt, letzteres nur 5 Watt bis 10 Watt.
Nvidia geht davon aus, dass die Module von einer Vielzahl von Kunden verwendet werden, von Ingenieuren, die sich mit Edge-KI-Anwendungen befassen, bis hin zu Entwicklern von Robotik-Betriebssystemen. Der niedrige Preis, der bei nur 199 US-Dollar beginnt, wird diese Technologie für ein breiteres Spektrum von Benutzern zugänglicher machen. Nvidia nennt Canon, John Deere, Microsoft Azure und andere als frühe Anwender von Jetson Orin Nano.
„Mit einer Leistungssteigerung um Größenordnungen für Millionen von Edge-KI- und ROS-Entwicklern ist Jetson Orin heute die ideale Plattform für praktisch jede Art von Robotereinsatz, die man sich vorstellen kann“, sagte Deepu Talla, Vice President der Embedded- und Edge-Computing-Abteilung von Nvidia .
Nvidia behauptet, dass der Jetson Orin eine 80-fache Leistungssteigerung gegenüber der vorherigen Generation von Jetson SOMs bieten wird. Das ist eine enorme Steigerung zu einem vernünftigen Preis. Die Module sind ab Januar 2023 verfügbar.