NVIDIA BlueField-4 STX und Vera Rubin: Das Fundament für die KI-Agenten-Ära
19.03.2026 - 00:00:21 | boerse-global.de
NVIDIA stellt auf seiner GTC-Konferenz eine neue Hardware-Generation vor, die speziell für autonome KI-Agenten entwickelt wurde. Die Systeme sollen die Daten-Engpässe heutiger Rechenzentren überwinden und den Weg für eine Billionen-Dollar-Industrie ebnen.
Auf seiner hochkarätigen GPU Technology Conference (GTC) in San Jose hat NVIDIA diese Woche eine Suite bahnbrechender Hardware- und Referenzarchitekturen enthüllt. Sie zielen auf die nächste KI-Front ab: agentische KI. Am Montag, dem 16. März, präsentierte der Tech-Gigant die BlueField-4 STX-Speicherarchitektur und erweiterte seine Vera Rubin-KI-Plattform massiv. Während sich KI-Modelle von einfachen Chat-Schnittstellen zu autonomen Agenten entwickeln, stoßen traditionelle Infrastrukturen an ihre Grenzen. Die neuen Entwicklungen adressieren genau die Datenzugriffsprobleme, die bisher die GPU-Auslastung bei komplexen Inferenz-Aufgaben bremsten. NVIDIA will damit die Hardware-Grundlage für skalierbare, leistungsstarke "KI-Fabriken" schaffen.
Während NVIDIA die Hardware-Grundlage für autonome Agenten schafft, müssen Unternehmen auch die rechtlichen Rahmenbedingungen der neuen Technologie im Blick behalten. Dieser kostenlose Leitfaden erklärt kompakt, welche Anforderungen und Fristen die EU-KI-Verordnung für Anbieter und Nutzer von KI-Systemen bereithält. EU-KI-Verordnung kompakt: Endlich verständlich erklärt, welche Pflichten für Ihr Unternehmen gelten
BlueField-4 STX: Der Turbo für KI-Speicher
Ein zentraler Höhepunkt der Keynote war die BlueField-4 STX. Diese modulare Referenzarchitektur ist speziell für beschleunigte Speicherlösungen entwickelt. Kern der Plattform sind die neue, speicheroptimierte BlueField-4 Data Processing Unit (DPU) und der ConnectX-9 SuperNIC. Die Architektur soll die Datenzugriffsengpässe bei agentischer KI-Inferenz beseitigen, insbesondere die Herausforderungen im Management des Key-Value (KV)-Caches.
Denn wenn Kontextfenster Hunderttausende von Tokens umfassen, sprengt der KV-Cache schnell den verfügbaren GPU-High-Bandwidth-Memory (HBM). Die STX-Architektur entlastet die Infrastruktur und ermöglicht direkte Datentransfers zwischen Speicher und GPU-Speicher. Mit Technologien wie Remote Direct Memory Access (RDMA) umgeht das System CPU und Betriebssystem. Laut NVIDIA liefert die STX-Architektur bis zu fünffachen Token-Durchsatz, vierfache Energieeffizienz und doppelte Datenerfassungsgeschwindigkeit im Vergleich zu CPU-basierten Systemen.
Die erste Rack-Implementierung umfasst die NVIDIA CMX-Kontextspeicherplattform. Sie erweitert den GPU-Speicher mit einer Hochleistungsschicht. Partner wie Dell Technologies, HPE, NetApp, Supermicro und VAST Data nutzen die Designs bereits. Cloud-Anbieter wie CoreWeave, Mistral AI und Oracle Cloud Infrastructure haben eine frühe Einführung zugesagt. STX-basierte Plattformen sollen in der zweiten Hälfte 2026 ausgeliefert werden.
Vera Rubin: Die integrierte KI-Fabrik
NVIDIA hat seine Vera Rubin-Plattform massiv erweitert. Das komplette Vera Rubin POD besteht nun aus 40 Racks mit 1.152 Rubin-GPUs. Es liefert 60 Exaflops Rechenleistung und 10 Petabyte pro Sekunde Bandbreite. Ein Schwerpunkt liegt auf dedizierter Inferenz-Hardware, da dieser Workload im Unternehmensumfeld das Training zunehmend übertrifft.
Für den Leistungssprung führte NVIDIA die NVL72-GPU-Racks ein. Sie sollen laut Unternehmen den Inferenz-Durchsatz pro Watt verzehnfachen und die Kosten pro Token auf ein Zehntel der Vorgängergeneration Blackwell senken. In einer architektonischen Neuausrichtung integrierte NVIDIA zudem Groq 3 LPX-Racks als dedizierte Low-Latency-Inferenz-Pipeline. Zusammen mit den NVL72-Racks beschleunigt die Groq-Hardware den Decodierungsprozess. Experten sehen diese Kombination als entscheidend für schnellere Antwortzeiten in komplexen Agentensystemen. Es ist das erste Mal, dass NVIDIA dedizierte, nicht-GPU-basierte Inferenz-Hardware in seine Kernplattform aufnimmt.
Der technologische Fortschritt durch spezialisierte Inferenz-Hardware führt dazu, dass KI-Systeme immer tiefer in Unternehmensprozesse integriert werden – was neue Compliance-Fragen aufwirft. Erfahren Sie in diesem kostenlosen E-Book, wie Sie KI-Systeme richtig klassifizieren und dokumentieren, um die seit August 2024 geltenden gesetzlichen Vorgaben zu erfüllen. Was Unternehmen über die neue KI-Verordnung wissen müssen – aber oft übersehen
Vera CPUs: Die ergänzende Rechenkraft
Da agentische KI nicht ausschließlich auf Grafikprozessoren läuft, stellte NVIDIA auch dedizierte CPU-Racks vor. Das neue Vera CPU-Rack verfügt über 256 flüssiggekühlte Vera-Prozessoren und 64 BlueField-4 DPUs. Es bietet über 22.500 Kerne und 400 Terabyte Speicher.
In technischen Briefings erläuterten NVIDIA-Vertreter die komplementären Rollen: Während GPUs die neuronale Netzverarbeitung übernehmen, sind CPUs für Zusatzaufgaben wie Tool-Aufrufe, Datenbankabfragen, Sandbox-Ausführung und Code-Kompilierung unverzichtbar. Der Vera CPU, Nachfolger des Grace-Prozessors, soll laut NVIDIA die doppelte Energieeffizienz und dreifache Speicherbandbreite pro Kern gegenüber x86-Alternativen bieten.
Um diese immense Rechen- und Speicherinfrastruktur zu verbinden, kündigte NVIDIA das Spectrum-6 SPX-Rack an. Es sorgt für die nötige rackübergreifende Konnektivität mit niedriger Latenz und hohem Durchsatz. Auf Software-Seite stellte das Unternehmen den NemoClaw-Sicherheitsstack für KI-Agenten und NVIDIA Dynamo 1.0 vor – eine Inferenz-Softwareplattform, die als Betriebssystem für KI-Fabriken beschrieben wird.
Marktimplikationen: NVIDIA setzt den Standard
Die Ankündigungen unterstreichen einen fundamentalen Wandel in der KI-Branche: vom statischen Training zur dynamischen, kontinuierlichen Inferenz. NVIDIA-CEO Jensen Huang betonte, dass agentische KI nicht nur Software, sondern auch Recheninfrastrukturen neu erfinde. Die Nachfrage nach KI-Rechenleistung werde bis 2027 auf eine Billion Dollar steigen, getrieben von Agenten, die konstantes Kontextgedächtnis und Echtzeit-Argumentation benötigen.
Marktbeobachter deuten die Strategie als proaktive Verteidigung der Marktführerschaft. Statt sich auf Allzweck-GPUs zu verlassen, bietet NVIDIA hochspezialisierte Hardware für verschiedene Workloads an. Durch umfassende Referenzdesigns wie die STX-Architektur und den Vera Rubin DSX AI Factory-Blaupausen standardisiert das Unternehmen, wie Rechenzentren im nächsten Jahrzehnt gebaut werden. Die Integration von Hochleistungs-Netzwerken, spezialisiertem Speicher und dedizierten Inferenzprozessoren erschwert es Wettbewerbern, in den Markt einzudringen.
Die Verfügbarkeit der Vera CPUs, Groq 3 LPX-Racks und STX-Plattformen ist für die zweite Hälfte 2026 geplant. Mit der zunehmenden Verbreitung agentischer KI in Unternehmen wird die Nachfrage nach effizientem Kontextspeicher weiter steigen. Der Übergang zu KI-nativen Architekturen mit direktem Speicherzugriff dürfte zum neuen Industriestandard im Hochleistungsrechnen werden.
Hol dir jetzt den Wissensvorsprung der Aktien-Profis.
Für. Immer. Kostenlos

