NVIDIA setzt auf Licht: Das Ende der Kupfer-Ära für KI-Chips
06.04.2026 - 01:18:11 | boerse-global.deNVIDIA revolutioniert die Hardware für Künstliche Intelligenz: Der Chip-Riese stellt die Weichen für die optische Datenübertragung. Mit der neuen Vera Rubin-Architektur überwindet das Unternehmen die physikalischen Grenzen von Kupferkabeln. Diese strategische Wende, untermauert durch Milliardendeals im April 2026, markiert den Abschied von elektrischen Signalen in Hochleistungs-Rechenzentren.
Während die Hardware-Entwicklung neue Leistungsdimensionen erreicht, setzt der rechtliche Rahmen für KI-Systeme bereits heute klare Grenzen. Dieser kostenlose Leitfaden zeigt Ihnen, welche Anforderungen die EU-KI-Verordnung stellt und wie Ihr Unternehmen diese rechtzeitig umsetzt. EU AI Act in 5 Schritten verstehen: Fristen, Pflichten und Risikoklassen kompakt erklärt
Die Mauer aus Kupfer und der Ausweg mit Licht
Die KI-Revolution stieß an eine physikalische Grenze: die „Kupfer-Mauer“. Herkömmliche Kupferkabel können die enormen Datenmengen moderner KI-Modelle nur über kurze Distanzen verlustfrei übertragen. Bei Geschwindigkeiten von bis zu 1,8 Terabyte pro Sekunde degradiert das Signal bereits nach wenigen Metern. Das zwang Hersteller wie NVIDIA dazu, Tausende von Grafikchips auf engstem Raum in einem einzigen Server-Rack zu bündeln.
Die Lösung heißt Co-Packaged Optics (CPO). Diese Technologie integriert optische Laser und Modulatoren direkt in das Gehäuse des KI-Chips. Der Vorteil ist enorm: Der Signalverlust sinkt von 22 auf nur 4 Dezibel. Noch entscheidender ist der Effizienzgewinn. Der Stromverbrauch pro Anschluss fällt von etwa 30 auf 9 Watt. Die Umwandlung von elektrischen in optische Signale erfolgt nun nahezu verzögerungsfrei direkt am Chip. Das ermöglicht erstmals, ganze Rechenzentren als einen einzigen, kohärenten Supercomputer zu betreiben.
Vera Rubin: Sieben Chips werden ein Supercomputer
Das Herzstück der neuen Strategie ist die Vera Rubin-Plattform, die im Frühjahr 2026 in die Serienproduktion ging. Es handelt sich nicht mehr um einen einzelnen Grafikchip, sondern um ein vertikal integriertes System aus sieben spezialisierten Komponenten. Dazu gehören der Rubin-GPU, die Vera-CPU mit 88 eigenen „Olympus“-Kernen und der Groq 3 LPU – ein Beschleuniger für KI-Inferenz, den NVIDIA durch eine Übernahme im Wert von 20 Milliarden Euro integrierte.
Die Skalierung ist beispiellos. Während das Standard-System Rubin NVL72 aus Kostengründen noch interne Kupferverbindungen nutzt, vernetzt das Top-Modell Rubin Ultra NVL576 acht separate Server-Racks über ein all-optisches Netzwerk zu einer logischen Einheit. Analysten zufolge steigert diese Konfiguration den Durchsatz pro Megawatt Strom im Vergleich zur Vorgängergeneration Blackwell um das Fünfzigfache. Optischer NVLink lässt 576 GPUs so zusammenzuarbeiten, als säßen sie Millimeter voneinander entfernt auf einer Platine.
Milliardendeals sichern die optische Lieferkette
Der Technologiesprung erforderte massive Investitionen in die Lieferkette. Im April 2026 kündigte NVIDIA eine strategische Partnerschaft im Wert von 2 Milliarden Euro mit Marvell Technology an. Ziel ist die Integration von Marvells Optik-Know-how in NVIDIAS „NVLink Fusion“-Ökosystem für maßgeschneiderte Chips.
Zuvor hatte der Konzern bereits 4 Milliarden Euro in die Laser-Spezialisten Coherent und Lumentum investiert, um sich prioritären Zugang zu Schlüsselkomponenten für CPO zu sichern. Experten sehen darin einen klaren Schritt, um Engpässe bei der Produktion optischer Hardware zu vermeiden und die Roadmap für 2027 und 2028 abzusichern. Die Partnerschaft mit Marvell öffnet zudem die Tür für einen heterogenen Datencenter-Markt, in dem auch Fremd-Chips in das optische NVLink-Netz integriert werden können.
Der technologische Fortschritt bei KI-Systemen bringt auch neue regulatorische Verpflichtungen für Entwickler und Anwender mit sich. Erfahren Sie im kostenlosen E-Book, welche KI-Systeme als Hochrisiko eingestuft werden und welche Dokumentationspflichten Sie jetzt erfüllen müssen. Kostenlosen Umsetzungsleitfaden zum EU AI Act jetzt sichern
Markt im Wandel: Vom Server-Rack zur „KI-Fabrik“
Der Übergang zu optischen Verbindungen verändert die Ökonomie des Cloud-Computings. Hyperscaler wie AWS, Google Cloud und Microsoft Azure passen bereits ihre Rechenzentren an die neuen Anforderungen an. Dazu gehören Flüssigkühlung und optische Backplanes für die Rubin-Plattform. Die Cloud-Giganten ordern nicht mehr einzelne Server, sondern gleich ganze „KI-Fabriken“ – mehrräckige Einheiten, die Exaflop-Leistung bringen.
Für Netzwerk-Konkurrenten wie Broadcom stellt NVIDIAS geschlossenes Ökosystem eine hohe Eintrittsbarriere dar. Während Broadcom auf den offenen Ultra-Ethernet-Standard setzt, optimiert NVIDIA den gesamten Stack vom Laser bis zur Software. Der neue Benchmark heißt nicht mehr reine Rechenleistung, sondern „Tokens pro Watt“. Diese Metrik für Energieeffizienz ist zum entscheidenden Faktor geworden, besonders in Regionen mit begrenzten Stromnetzen.
Blick nach vorn: Die voll-optische „Feynman“-Generation
Die nächste Evolutionsstufe ist bereits in Sicht: die „Feynman“-Architektur für Ende 2028. Diese Generation soll Co-Packaged Optics auf Chip-Ebene vollständig umsetzen und Kupfer für Hochgeschwindigkeits-Datenpfade komplett ersetzen. Systeme wie das geplante NVL1152 sind für KI-Modelle mit Billionen von Parametern ausgelegt. Deren Bandbreitenbedarf kann nur ein vollständig photonisches Netzwerk decken.
Mit der Vera Rubin-Plattform beginnt im April 2026 der Aufbau einer komplett neuen Infrastruktur-Generation. Der Wechsel von Elektronen zu Photonen ist eine der tiefgreifendsten Architektur-Änderungen in der Geschichte des Computings. NVIDIA baut nicht nur schnellere Chips, sondern entwirft eine neue Blaupause für die globale KI-Ökonomie. In den kommenden Monaten wird sich zeigen, ob die Photonik das Skalierungspotenzial liefern kann, um die nächste Grenze autonomer KI zu erreichen.
So schätzen die Börsenprofis Aktien ein!
Für. Immer. Kostenlos.

