Hey! Sie scheinen aus United States zu kommen, möchten Sie auf die Englisch Webseite wechseln?
Switch to Englisch site
Skip to main content

Jetson-Containers bietet nun SBSA-Unterstützung für NVIDIA GH200/GB200

by johnnynunez

Jetson-Containers bietet nun SBSA-Unterstützung für NVIDIA GH200/GB200


Jetson-Containers beschleunigt Arm-basiertes Hochleistungsrechnen mit bahnbrechender SBSA-Kompatibilität, einschließlich NVIDIA GH200/GB200
Die Landschaft des Hochleistungsrechnens (HPC) und der KI auf Arm-basierten Systemen macht heute einen gewaltigen Sprung nach vorne. Wir freuen uns, bekannt geben zu können, dass Jetson-Containers nun vollständige Kompatibilität mit der Server Base System Architecture (SBSA) bietet, einschließlich der hochmodernen NVIDIA GH200 und der kommenden GB200 Grace Hopper Superchips. Diese bedeutende Weiterentwicklung ist das Ergebnis der engagierten Arbeit von Johnny Núñez, mit wertvoller Unterstützung von RSGroup und Zugang zu den leistungsstarken Rechenressourcen von Lambda Labs (LINK).
Dieser Durchbruch wird den Zugang zu immenser Rechenleistung demokratisieren und es Entwicklern und Unternehmenskunden erleichtern, das volle Potenzial der Serverarchitektur von Arm für anspruchsvollste KI- und HPC-Workloads auszuschöpfen. Die verbesserte Unterstützung hat bereits bemerkenswerte Auswirkungen gezeigt. Berichten zufolge verzeichnet die GH200-Kapazität aufgrund der optimierten Benutzerfreundlichkeit von Jetson-Containers eine beispiellose Nachfrage.

 

Was ist SBSA?

Die Server Base System Architecture (SBSA) ist ein wichtiger Standard, der von Arm entwickelt wurde. Er definiert eine Hardware-Systemarchitektur für Server, die auf der 64-Bit-Architektur von Arm basieren. [1][2][3] Das Hauptziel von SBSA ist es, sicherzustellen, dass ein Standard-Betriebssystem-Image auf allen kompatiblen Hardwarekomponenten ohne wesentliche Änderungen ausgeführt werden kann. [2] Diese Standardisierung vereinfacht die Softwareentwicklung und -bereitstellung auf verschiedenen Arm-basierten Serverplattformen. [2][3] SBSA spezifiziert verschiedene Aspekte, darunter Verarbeitungselementfunktionen, Speicherkarte, Interrupt-Controller und Stromzustandssemantik, um eine einheitliche Zielplattform für Betriebssysteme, Hypervisoren und Firmware zu schaffen. [2][3]

 

Die GPU-Leistung freischalten: Was ist SBSA CUDA?

SBSA CUDA bezieht sich auf die parallele Rechenplattform und das Programmiermodell CUDA von NVIDIA, die speziell für Arm SBSA-kompatible Server entwickelt wurden.[4] Während CUDA weithin für die diskreten GPUs (dGPUs) von NVIDIA bekannt ist, stellt SBSA CUDA sicher, dass Entwickler die enormen parallelen Verarbeitungsfähigkeiten der NVIDIA-GPUs in Verbindung mit Arm-basierten Server-CPUs nutzen können.[4] Es handelt sich um eine eigenständige Distribution, die sich von der L4T (Linux for Tegra) CUDA auf Jetson-Embedded-Geräten unterscheidet und speziell für Serverumgebungen mit dedizierten GPUs entwickelt wurde.[4] Dies ermöglicht eine leistungsstarke Kombination für beschleunigtes Computing im Rechenzentrum.

NVIDIA Grace (SBSA): Eine neue Ära der Leistung

Der Grace-CPU-Superchip von NVIDIA ist ein Paradebeispiel für einen Hochleistungsprozessor, der gemäß Arm SBSA entwickelt wurde.[5][6][7][8] Diese Konformität gewährleistet, dass Grace-basierte Systeme standardkonforme Hardware- und Software-Schnittstellen bieten, was eine nahtlose Integration von Betriebssystemen und Anwendungen ermöglicht.[5][6] Die Grace-CPU mit Arm Neoverse V2-Kernen wurde für außergewöhnliche Leistung pro Thread und Energieeffizienz entwickelt und eignet sich daher ideal für HPC-, KI- und Cloud-Workloads.[6][7] Der Grace Hopper Superchip, der die Grace-CPU über die Hochgeschwindigkeitsverbindung NVLink-C2C mit einer Hopper-GPU kombiniert, stellt einen Sprung in der einheitlichen Speicher- und Rechenleistung für die intensivsten Aufgaben dar.[5][7]

 

Die Evolution der Leistung: Arm Neoverse V2 vs. V3

Die Neoverse-CPU-Kerne von Arm bilden das Herzstück der Serverrevolution und wurden für Rechenzentren, Cloud- und HPC-Anwendungen entwickelt. [9][10] Die V-Serie zielt auf maximale Leistung pro Kern ab. [10][11]

  • Neoverse V2 (Demeter): Basierend auf dem Armv9.0-A-Befehlssatz und abgeleitet vom Cortex-X3, brachte Neoverse V2 gegenüber V1 erhebliche Leistungssteigerungen. [9][10][11] Zu den wichtigsten Merkmalen gehören bis zu 2 MB L2-Cache pro Kern, Unterstützung für CXL 2.0, DDR5/LPDDR5-Speicher und Scalable Vector Extensions 2 (SVE2).[10][11][12] Es handelt sich um das Kerndesign, das in der Grace-CPU von NVIDIA verwendet wird.[9][11]
  • Neoverse V3 (Poseidon): Der V3 ist der bislang leistungsstärkste CPU-Kern von Arm und basiert auf der Armv9.2-A ISA.[13][14] Er bietet verbesserte SVE2, größere L2-Cache-Optionen (bis zu 3 MB) und Unterstützung für erweiterte Funktionen wie die Arm Confidential Compute Architecture.[13][14] Simulationen zeigen eine deutliche Leistungssteigerung gegenüber V2 bei typischen Server-Workloads (9 % bis 16 %) und eine dramatische Verbesserung (bis zu 84 %) bei der KI-Datenanalyse.[13] Neoverse V3 unterstützt auch Technologien wie PCIe Gen6 und CXL 3.0.[9]

Vergleich: Arm Neoverse V2 vs. V3

Feature Arm Neoverse V2 Arm Neoverse V3
Codename Demeter Poseidon
ISA Armv9.0-A Armv9.2-A
Derived From Cortex-X3 (approx.) Cortex-X4 (approx.)[15]
L1 Cache (Specifics vary by implementation) 64KB I + 64KB D[13]
L2 Cache Up to 2MB per core[10][11][12] Up to 3MB per core[13]
Key Enhancements SVE2, CXL 2.0, DDR5/LPDDR5[11][12] Enhanced SVE2, Confidential Compute, PCIe Gen5/CXL 3.0 support[9][13][14]
Performance Uplift (vs. predecessor) Significant over V1[10] 9-16% (general), up to 84% (AI analytics) over V2[13]
Memory Support DDR5, LPDDR5 DDR5, LPDDR5, HBM[13]
Interconnect CMN-700[9] CMN S3 (successor to CMN-700)[15]

 

Innovation im Fokus: FramePack für die Videogenerierung

Diese Ankündigung sorgt für zusätzliche Spannung und steht im Einklang mit den neuesten Entwicklungen im Bereich der KI, wie beispielsweise FramePack. FramePack ist eine neuartige neuronale Netzwerkstruktur für Modelle zur Vorhersage des nächsten Videobildes. [16][17] Die wichtigste Innovation besteht in der Komprimierung des Kontextes des Eingabebildes auf eine feste Länge, wodurch der Rechenaufwand unabhängig von der Videolänge bleibt.[16][17] Dadurch kann eine große Anzahl von Frames selbst auf handelsüblichen GPUs mit nur 6 GB VRAM verarbeitet werden.[16][18][19] Mit FramePack fühlt sich die Videoverbreitung eher wie eine Bildverbreitung an, wodurch längere Videos in höherer Qualität mit deutlich geringerem Speicherbedarf erzeugt werden können.[16][18]

Demo:

 

Beispiellose Nachfrage nach GH200: Ein Beweis für vereinfachten Zugang

Die Einführung der Kompatibilität von Jetson-Containers mit SBSA und insbesondere mit NVIDIA GH200 hat eine neue Dimension der Zugänglichkeit und Benutzerfreundlichkeit für diese leistungsstarken Arm-basierten Superchips eröffnet. Diese Vereinfachung hat sich direkt in einer steigenden Nachfrage nach GH200-Kapazitäten niedergeschlagen. Lambda Labs, ein Anbieter von GH200-Systemen, hat berichtet, dass seine GH200-Flotte nun vollständig ausverkauft ist, was einen deutlichen Anstieg der Auslastung im Vergleich zum Vormonat bedeutet. Dies unterstreicht den enormen Einfluss, den benutzerfreundliche Software-Ökosysteme wie Jetson-Containers auf die Akzeptanz und Nutzung fortschrittlicher Hardware-Plattformen haben können. Die Möglichkeit für Entwickler und Forscher, ihre Workloads auf diesen Systemen einfacher bereitzustellen und zu verwalten, ist eindeutig ein starker Katalysator.

 

Ausblick

Die Kompatibilität von Jetson-Containern mit SBSA, GH200 und dem kommenden GB200 markiert einen entscheidenden Moment für das Arm-Server-Ökosystem. Durch die Vereinfachung des Zugriffs und der Bereitstellung ermöglicht diese Initiative einem breiteren Spektrum von Anwendern, die außergewöhnliche Leistung und Effizienz von Arm-basierten HPC- und KI-Plattformen zu nutzen. Die Community ist der eigentliche Motor, der die Leistungsfähigkeit der Hardware freisetzt und verstärkt und damit den Weg für eine noch bessere und zugänglichere Zukunft im Bereich des beschleunigten Rechnens auf Arm ebnet.

As a PhD student in Generative AI and Robotics at the University of Barcelona (UB), I am passionate about developing and researching intelligent systems that enhance human-robot-object interactions (HROIs). With a strong background in AI, edge computing, and GPU technologies, I have the skills and knowledge to tackle complex and challenging problems in this domain.
DesignSpark Logo

Gefällt Ihnen DesignSpark?

Erstellen Sie ein Konto, um leistungsstarke PCB- und 3D-Maschinenbau-Designsoftware freizuschalten, in unseren Foren zusammenzuarbeiten und über eine Million kostenlose 3D-Modelle, Schaltpläne und Footprints herunterzuladen.
Ein Konto erstellen

Sie sind bereits DesignSpark-Mitglied? Anmelden

Kommentare