Nvidia, Auslieferung

Nvidia startet Auslieferung der nächsten KI-Generation Vera Rubin

28.02.2026 - 16:09:28 | boerse-global.de

Nvidia hat erste Muster der neuen Vera-Rubin-Architektur an Cloud-Anbieter ausgeliefert. Die Serienproduktion soll 2026 starten und KI-Inferenzkosten drastisch senken.

Nvidia hat erste Muster seiner neuen KI-Architektur Vera Rubin an Cloud-Partner verschickt. Dieser Schritt markiert den finalen Entwicklungsstand vor der Serienproduktion.

Die Auslieferung der Engineering-Samples an ausgewählte Cloud- und Infrastrukturpartner erfolgte bereits Anfang dieser Woche. Das gab der Halbleiterriese am Mittwoch im Rahmen seiner Quartalszahlen bekannt. Damit sind die Kern-Spezifikationen für Leistung und Stromverbrauch endgültig festgelegt. Partner wie Microsoft Azure, Amazon Web Services und Google Cloud können nun mit der Validierung in ihren Rechenzentren beginnen.

Anzeige

Während Cloud-Giganten in neue Hardware-Generationen investieren, müssen Unternehmen auch die neuen regulatorischen Anforderungen im Blick behalten. Dieser kostenlose Leitfaden erklärt, welche KI-Gesetze und Sicherheitsaspekte Geschäftsführer jetzt kennen müssen. Was Geschäftsführer über Cyber Security 2024 wissen müssen

Das Unternehmen bleibt damit im Zeitplan: Die Massenproduktion soll in der zweiten Hälfte 2026 anlaufen. Breitere Installationen in Rechenzentren weltweit sind für Ende 2026 und 2027 zu erwarten.

Technischer Quantensprung für Rechenzentren

Die Vera-Rubin-Plattform setzt stark auf Speicherbandbreite und Effizienz bei KI-Inferenz. Der Flagship-Chip vereint rund 336 Milliarden Transistoren auf einem 3-Nanometer-Prozess. Jeder Prozessor verfügt über 288 Gigabyte HBM4-Speicher der sechsten Generation – ein deutlicher Sprung gegenüber der Vorgängergeneration Blackwell.

In der Superchip-Konfiguration kombinieren zwei Rubin-GPUs eine maßgeschneiderte, 88-kernige Vera-CPU auf Arm-Basis. Dieses System bringt es auf etwa 576 Gigabyte HBM4 und rund 100 PetaFLOPS Rechenleistung im FP4-Format.

Doch Nvidia liefert mehr als nur Chips. Die Architektur ist als komplettes Rack-Scale-System konzipiert. Dazu gehören der NVLink-6.0-Switch, die BlueField-4-Datenverarbeitungseinheit mit integriertem SSD-Cache sowie Spectrum-6- und Quantum-CX9-Netzwerkkomponenten für horizontale Skalierung.

Vereinfachte Integration für Cloud-Giganten

Nvidia verfolgt eine neue Strategie: Statt einzelner Chips liefert das Unternehmen nun vorgefertigte Compute-Trays aus. Diese VR200-Systeme kommen als modulare, kabelfreie Einheiten mit bereits installierten CPUs, GPUs und Kühlung.

„Diese Architektur soll Zuverlässigkeit und Wartbarkeit verbessern“, so das Unternehmen. Der standardisierte Ansatz beschleunigt die Bereitstellung neuer KI-Cluster erheblich. Für Cloud-Anbieter bedeutet das weniger eigenen Engineering-Aufwand und eine einheitliche Performance-Basis.

Finanzieller Hintergrund: Rekorde und Effizienzversprechen

Die Technologie-Ankündigung fiel mit weiteren Rekordzahlen zusammen. Im vierten Quartal 2026 erzielte Nvidia einen Umsatz von 68,1 Milliarden Euro. Das Jahresgesamt summierte sich auf stolze 215,9 Milliarden Euro. Getrieben wird dieses Wachstum fast ausschließlich vom Rechenzentrumsgeschäft.

Die milliardenschweren Investitionen der Tech-Konzerne verlangen nach mehr Effizienz – genau hier setzt Rubin an. Laut Nvidia sollen Trillionen-Parameter-Modelle der nächsten Generation mit nur einem Viertel der bisher benötigten GPUs betrieben werden können. Die Kosten für KI-Inferenz könnten damit um das Zehnfache sinken.

Anzeige

Die rasante Entwicklung der KI-Infrastruktur vergrößert auch die Angriffsfläche für Cyberkriminelle in modernen Unternehmen. Erfahren Sie in diesem Experten-Report, wie Sie Ihre IT-Sicherheit proaktiv stärken können, ohne dabei das Budget zu sprengen. Effektive IT-Sicherheitsstrategien kostenlos herunterladen

Für Hyperscaler, die unter Druck stehen, Rendite für ihre Infrastrukturinvestitionen zu liefern, ist dieses Argument entscheidend. Nvidia rechnet damit, dass jeder große Cloud-Anbieter auf die Vera-Rubin-Plattform setzen wird.

Wettbewerbsvorteil durch beschleunigten Takt

Der rasante Übergang von Blackwell zu Rubin unterstreicht Nvidias jährlichen Release-Rhythmus für Rechenzentrumsprodukte. Der Konzern verschiebt damit kontinuierlich die Leistungsmarke und setzt Wettbewerber unter Druck.

Analysten sehen den Fokus auf Durchsatz ganzer Systeme als großen Wettbewerbsvorteil. Zwar entwickeln Rivalen eigene Chips und Cloud-Anbieter hauseigene Siliziumlösungen. Doch die vorintegrierten Rubin-Systeme vereinfachen die Skalierung für Kunden erheblich. Die Bündelung von Hochleistungsnetzwerken, eigenen CPUs und HBM-Speicher in einem Paket adressiert direkt die Engpässe in modernen KI-Fabriken.

Die erfolgreiche Sample-Phase setzt den Zeitplan für den nächsten Hardware-Zyklus der Branche. Nach der aktuellen Qualifizierungsphase durch Early-Access-Partner beginnt die Großserienproduktion wie geplant in der zweiten Jahreshälfte 2026. Für Hyperscaler, die ihre Infrastruktur-Roadmaps planen, bietet dieser Fahrplan die nötige Planungssicherheit. Die Hardware-Grundlage für die nächste Evolution agentenbasierter KI-Anwendungen wird damit rechtzeitig gelegt.

Hol dir jetzt den Wissensvorsprung der Aktien-Profis.

 Hol dir jetzt den Wissensvorsprung der Aktien-Profis.

Seit 2005 liefert der Börsenbrief trading-notes verlässliche Aktien-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr.
Jetzt abonnieren.

boerse | 68621379 |