OpenAI, AMD und Microsoft bringen offenen Netzwerkstandard für KI-Cluster
06.05.2026 - 23:33:37 | boerse-global.de
Ein Konsortium aus OpenAI, AMD und Microsoft hat den Multipath Reliable Connection (MRC) als offenen Standard vorgestellt – ein Schritt, der die Infrastruktur für KI-Rechenzentren grundlegend verändern könnte.
Die Technologie wird dem Open Compute Project (OCP) vorgelegt und soll einen einheitlichen Netzwerkrahmen für GPU-Cluster schaffen. Der Vorstoß kommt zu einem Zeitpunkt, an dem die Branche gleich zwei Herausforderungen bewältigen muss: die explosionsartig steigende Nachfrage nach generativer KI und die zunehmende Verknappung kritischer Hardware-Komponenten wie Hochleistungsspeicher und Netzwerkkarten.
Während die Industrie neue Hardware-Standards für Rechenzentren schafft, müssen Unternehmen auch die rechtlichen Leitplanken im Blick behalten. Dieser kostenlose Leitfaden zum EU AI Act hilft Ihnen, die komplexen Anforderungen und Fristen der neuen KI-Verordnung rechtssicher umzusetzen. EU AI Act in 5 Schritten verstehen: Jetzt E-Book kostenlos downloaden
Offene Architektur gegen Fragmentierung
Mit MRC wollen die Partnerunternehmen die Engpässe in der KI-Kommunikation lösen. Das Protokoll optimiert die Zuverlässigkeit und Geschwindigkeit von Datenübertragungen zwischen tausenden von Prozessoreinheiten. AMD hat bereits erste Tests auf seinen 400G-Netzwerkkarten durchgeführt, um die Praxistauglichkeit unter Beweis zu stellen.
Die Entscheidung, MRC als offenen Standard zu etablieren, ist eine strategische Antwort auf die zunehmende Fragmentierung im High-Performance-Computing-Markt. Statt proprietärer Lösungen setzt das Konsortium auf ein offenes Ökosystem – ein Ansatz, der besonders für die nächste Generation sogenannter „agentischer KI" entscheidend ist. Diese autonomen Systeme benötigen extrem niedrige Latenzzeiten und hohe Bandbreiten, um effektiv zu funktionieren.
Parallel dazu hat die Standard Performance Evaluation Corporation (SPEC) am 5. Mai den SPEC CPU 2026 veröffentlicht. Der neue Benchmark umfasst 52 Tests – neun mehr als die Vorgängerversion – und enthält erstmals spezifische Workloads für große Sprachmodelle und Python. Die erforderliche Arbeitsspeicherkapazität wurde auf 64 Gigabyte angehoben.
AMD auf Rekordkurs
Als primärer Hardware-Partner im MRC-Projekt nutzt AMD die neue Technologie, um seine Position im Rechenzentrumsmarkt auszubauen. Der Chip-Hersteller meldete für das erste Quartal 2026 Rekordzahlen: Der Umsatz stieg um 38 Prozent auf umgerechnet rund 9,5 Milliarden Euro. Das Rechenzentrumsgeschäft war mit 5,3 Milliarden Euro der Haupttreiber – ein Plus von 57 Prozent.
AMDs Hardware-Roadmap ist zunehmend auf KI ausgerichtet. Der Instinct MI430X bietet eine native FP64-Leistung von über 200 TFLOPs – das Sechsfache konkurrierender Architekturen wie Nvidias Rubin bei hochpräzisen Berechnungen. Der Chip soll in Großprojekte wie das „Discovery"-System am Oak Ridge National Laboratory (geplant für 2028) und das europäische „Alice Recoque"-System integriert werden, das die Exaflop-Marke überschreiten soll.
Daneben testet AMD bereits den MI450, der auf hohe Inferenzleistung bei reduzierter Wärmeentwicklung ausgelegt ist, sowie den MI500 für großflächige, energieeffiziente Installationen. Für das zweite Quartal 2026 prognostiziert AMD einen Umsatz von rund 10,3 Milliarden Euro. Meta hat zudem angekündigt, bis zu sechs Gigawatt AMD-Instinct-GPUs für seine KI-Infrastruktur einzusetzen.
Lieferengpässe und Marktdynamik
Die Einführung von MRC fällt in eine phase intensiven Wettbewerbs und volatiler Lieferketten. Samsung Electronics durchbrach am 6. Mai 2026 die Marke von einer Billion US-Dollar Marktkapitalisierung – getrieben durch einen Kursanstieg von 15 Prozent und eine Verachtfachung des operativen Gewinns. Der KI-Boom, insbesondere bei Hochbandbreitenspeichern, befeuert das Wachstum.
Doch die Nachfrage schafft auch Engpässe. Apple musste sein Mac-Studio-Lineup anpassen: Die 128-Gigabyte-Konfiguration wurde eingestellt, die maximale Speicherkapazität liegt nun bei 96 Gigabyte. Bereits zwei Monate zuvor war das 512-Gigabyte-Modell gestrichen worden. Apple-Führungskräfte rechnen mit anhaltend hohen Speicherkosten.
Nvidia baut sein Ökosystem trotz logistischer Hürden weiter aus. Das Unternehmen aktualisierte sein Entwickler-Toolkit mit TensorRT für Unreal Engine, das eine 1,5-fache Leistungssteigerung gegenüber Standard-DirectML bietet. Gemeinsam mit ServiceNow arbeitet Nvidia an „Project Arc", einem Desktop-basierten KI-Agenten für Unternehmen. Allerdings gab es bei der RTX-50-Serie Berichte über Lieferengpässe und technische Probleme mit Stromanschlüssen.
Die rasante Entwicklung bei KI-Modellen und Hardware stellt Unternehmen nicht nur vor logistische, sondern auch vor neue sicherheitstechnische Herausforderungen. Erfahren Sie in diesem Experten-Bericht, welche Cyberrisiken durch neue KI-Gesetze entstehen und wie Sie Ihren Betrieb proaktiv absichern. Gratis-E-Book: Cyber Security Bedrohungen abwenden
Neue Maßstäbe für Supercomputing und Unternehmens-KI
Die Standardisierung durch MRC und leistungsfähigere GPU-Architekturen verändern die Ziele staatlicher und privater KI-Initiativen. Parallel dazu wächst die regulatorische Kontrolle: Am 5. Mai 2026 einigten sich Google, Microsoft und xAI mit der US-Regierung darauf, dass das National Institute of Standards and Technology (NIST) unveröffentlichte KI-Modelle vor dem Launch auf Cybersicherheitsrisiken testen darf.
Im Unternehmenssektor verschiebt sich der Fokus hin zur lokalen KI-Ausführung. AMDs kommender Ryzen AI Halo Mini-PC, der im Juni 2026 erscheinen soll, wird den Ryzen AI Max 395+ APU mit 16 Kernen und einer dedizierten NPU mit 50 TOPS enthalten. Das System kann lokale KI-Modelle mit bis zu 70 Milliarden Parametern ausführen.
Auch der Mobilitätssektor erlebt eine Konvergenz von KI und Robotik: Nuro erhielt am 5. Mai die Genehmigung für fahrerlose Tests von Lucid-Gravity-SUVs in Kalifornien. Die Fahrzeuge sind für Ubers Premium-Robotaxi-Dienst vorgesehen, der Ende 2026 starten soll.
Ausblick
Die Einführung von MRC markiert einen Wendepunkt in der Professionalisierung der KI-Infrastruktur. Während die Branche von experimentellen Clustern zu standardisierten Exascale-Systemen übergeht, wird der Fokus auf dem Gleichgewicht zwischen extremer Leistung und Energieeffizienz liegen. Intel wird voraussichtlich auf der Computex 2026 am 2. Juni seine eigene Vision mit der 18A-Prozesstechnologie und der Nova-Lake-Desktop-CPU-Serie vorstellen.
Die Rekordbewertungen von Samsung und das massive Umsatzwachstum von AMD zeigen: Die Kapitalinvestitionen in KI-Hardware bleiben ungebrochen. Ob sich MRC als OCP-Standard durchsetzt, könnte darüber entscheiden, wie schnell Unternehmen weltweit die nächste Generation autonomer KI-Agenten und großer generativer Modelle einsetzen können.
So schätzen die Börsenprofis Aktien ein!
Für. Immer. Kostenlos.
