NVIDIA, DGX

NVIDIA DGX B300: Der neue Maßstab für KI-Supercomputing

22.04.2026 - 09:30:33 | boerse-global.de

NVIDIA stellt die DGX B300 vor, einen KI-Supercomputer mit Blackwell-Ultra-Chips und massiver Speicherbandbreite für private Rechenzentren.

NVIDIA DGX B300: Der neue Maßstab für KI-Supercomputing - Foto: über boerse-global.de
NVIDIA DGX B300: Der neue Maßstab für KI-Supercomputing - Foto: über boerse-global.de

Die auf der Blackwell-Ultra-Plattform basierende Architektur zielt direkt auf die wachsenden Anforderungen generativer KI-Modelle ab. Mit massivem Speicherdurchsatz und modernster Vernetzung will der Chipriese den Markt für private KI-Fabriken und souveräne Cloud-Infrastrukturen dominieren.

Die Veröffentlichung der technischen Spezifikationen am heutigen Mittwoch fällt in eine Phase beispielloser Nachfrage. Branchenberichte von Anfang der Woche beziffern die Gesamtbestellungen für die Blackwell-Serie und die kommenden Vera-Rubin-Chips auf rund eine Billion Euro. NVIDIAs Führungsspitze hat bereits signalisiert, dass die Systeme für die nächsten zwei Jahre praktisch ausverkauft sind – ein klares Zeichen für die strategische Bedeutung der DGX B300.

Anzeige

Während NVIDIA die Hardware für neue KI-Fabriken liefert, müssen Unternehmen gleichzeitig die komplexen rechtlichen Rahmenbedingungen des seit August 2024 geltenden EU AI Acts erfüllen. Dieser kostenlose Leitfaden bietet einen kompakten Überblick über alle Anforderungen, Fristen und Risikoklassen für den rechtssicheren Einsatz von KI. Umsetzungsleitfaden zur EU-KI-Verordnung kostenlos herunterladen

Blackwell Ultra: Die Rechenzentrale der Zukunft

Das Herzstück der DGX B300 ist eine Konfiguration mit acht GPUs auf Basis der Blackwell-Ultra-Architektur. Laut den heute veröffentlichten technischen Dokumenten liefert das System 72 PetaFLOPS für FP8-Training und 144 PetaFLOPS für FP4-Inferenz. Das ist ein gewaltiger Sprung in der Rechenleistung, speziell zugeschnitten auf neuronale Netze mit mehreren Milliarden Parametern.

Um diese Geschwindigkeiten zu ermöglichen, hat NVIDIA 1.440 GB HBM3-Speicher integriert. Dieser Hochgeschwindigkeitsspeicher ist entscheidend für den Datenfluss bei Echtzeit-Inferenz und komplexem Modelltraining. Die Architektur ist darauf ausgelegt, die massiven Datensätze moderner KI-Workloads zu bewältigen – von großen Sprachmodellen bis hin zu multimodalen Anwendungen.

Die Hardware zielt nicht nur auf kommerzielle Unternehmen. Bereits gestern wurde bekannt, dass die US Naval Postgraduate School DGX-GB300-Systeme erhalten hat. Sie sollen das Training großer neuronaler Netze mit klassifizierten Daten ermöglichen – ohne Abhängigkeit von externen Cloud-Anbietern. Das signalisiert einen beschleunigten Wettlauf um militärische KI-Infrastruktur unter NATO-Partnern.

InfiniBand XDR: Vernetzung ohne Engpässe

Für die Kommunikation zwischen den GPUs und über mehrere Knoten hinweg setzt die DGX B300 auf ein hochentwickeltes Netzwerk. Zentral ist das InfiniBand-XDR-Protokoll mit einem Durchsatz von bis zu 1,6 Terabit pro Sekunde. Die integrierten ConnectX-8-SuperNICs schaffen jeweils 800 Gbit/s und verhindern so Datenstaus bei den Hochgeschwindigkeitsprozessoren.

In großen Installationen arbeitet die DGX B300 innerhalb einer DGX-SuperPOD-Umgebung. Ein einzelner SuperPOD kann bis zu 576 Knoten umfassen und bildet so einen massiven, einheitlichen Rechenverbund. Diese Skalierbarkeit wird durch Quantum-X800-Switches unterstützt – darunter das Modell Q3400 mit 144 Ports bei 800 Gb/s. Für die Signalintegrität über größere Distanzen unterstützt die Architektur 1,6T-OSFP-Transceiver mit einer Reichweite von bis zu zwei Kilometern.

Das Ziel: ein nahtloser Übergang von einzelnen Server-Einheiten zu riesigen KI-Fabriken. Mit der 1,6-Tbit/s-InfiniBand-XDR-Backbone will NVIDIA die niedrigen Latenzen und die hohe Bandbreite liefern, die für anspruchsvolle verteilte Trainingsaufgaben nötig sind.

Mission Control 2.3: Die Software-Zentrale

Die Komplexität der B300-Architektur erfordert eine spezialisierte Software-Schicht. Bereits am vergangenen Montag veröffentlichte NVIDIA ein Installationshandbuch für Mission Control Version 2.3, das speziell für DGX-B200-, B300- und GB200-Systeme optimiert ist. Die Verwaltungssoftware ist in eine Control Plane und eine Compute Plane unterteilt.

Die Control Plane besteht aus Head Nodes und einer Kubernetes-basierten Administration für Benutzer und Administratoren. Die Compute Plane verwaltet die eigentlichen Hardware-Knoten. Eine standardmäßige Scalable Unit (SU) kann 32 DGX-Einheiten oder bis zu acht Racks umfassen. Zu den wichtigsten Funktionen gehören:

  • Zentralisiertes Management: Einheitliche Oberfläche für Überwachung und Orchestrierung großer Cluster
  • Autonome Wiederherstellung: Automatisierte Hardware- und Job-Wiederherstellung zur Minimierung von Ausfallzeiten
  • Workload-Scheduling: Integration mit Branchenstandards wie Slurm und run:ai
  • Power Services: Vorschau auf Domain Power Services zur Verwaltung des Energiebedarfs

Dieses Software-Ökosystem soll die Einstiegshürde für Unternehmen senken, die eigene KI-Kapazitäten aufbauen wollen – eine "schlüsselfertige" Erfahrung für die Verwaltung tausender GPUs.

Marktumfeld und Wettbewerb

Der Start der DGX B300 erfolgt in einem Markt, der sich zunehmend auf spezialisierte KI-Chips konzentriert. NVIDIA dominiert zwar, aber die Konkurrenz schläft nicht. Intel positioniert seine Arc Pro B70 und B65 GPUs als realistische Optionen für On-Premise-KI-Inferenz – speziell für Modelle mit über 20 Milliarden Parametern. Mit einem Listenpreis von rund 730 Euro für die B70 und einem anderen architektonischen Fokus besetzen Intels Angebote jedoch ein anderes Marktsegment als die High-End-DGX-Systeme.

Auch NVIDIAs interne Diversifizierung geht weiter. Die RTX PRO 4500 Blackwell Server Edition – vertrieben über Partner wie PNY – ist eine Single-Slot-Karte mit 165 Watt für Edge-Server und Unternehmens-Chatbots. Sie bildet die Brücke zwischen Desktop-Workstations und den massiven DGX-B300-Clustern. Zudem werden technische Fortschritte wie die neuronale Texturkompression als Möglichkeit angepriesen, die Lebensdauer bestehender GPUs zu verlängern – ein Faktor, der die Hardware-Refresh-Zyklen vieler Unternehmen verschieben könnte.

Ausblick: Die Blackwell-Ära und was danach kommt

NVIDIAs Roadmap für High-End-Hardware bleibt aggressiv. Während die DGX B300 in die Auslieferungsphase geht, zeichnen sich bereits Details zum Nachfolger ab: der Vera-Rubin-Architektur. Erwartet für Ende 2026, sollen die Vera-Rubin-Chips 1,3 Millionen Komponenten umfassen und die zehnfache Leistung pro Watt im Vergleich zur aktuellen Grace-Blackwell-Generation bieten.

Für die unmittelbare Zukunft liegt NVIDIAs Fokus auf der Abarbeitung des massiven Auftragsstaus für die B300 und ihre Varianten. Mit einer Marktkapitalisierung von rund 4,5 Billionen Euro im April 2026 wird die Fähigkeit des Unternehmens, die Blackwell-Ultra-Architektur zu liefern, der entscheidende Faktor für den Erhalt dieser Dynamik sein. Während KI zunehmend zur nationalen Sicherheits- und Unternehmensstrategie wird, setzt die DGX B300 den aktuellen Maßstab für hochdichte, leistungsstarke KI-Berechnung.

So schätzen die Börsenprofis Aktien ein!

<b>So schätzen die Börsenprofis  Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
Für. Immer. Kostenlos.
de | boerse | 69234537 |