AMD, Rekordumsatz

AMD erzielt Rekordumsatz mit KI-Chips – Markt verlangt nach Alternativen

12.05.2026 - 02:19:18 | boerse-global.de

AMD erzielt mit KI-Chips 5,8 Mrd. Dollar Rekordumsatz. Speicher-Engpässe bis 2028 belasten Apple und andere Hersteller.

AMD erzielt Rekordumsatz mit KI-Chips – Markt verlangt nach Alternativen - Foto: über boerse-global.de
AMD erzielt Rekordumsatz mit KI-Chips – Markt verlangt nach Alternativen - Foto: über boerse-global.de

AMD hat mit seinen Instinct MI300-Chips im ersten Quartal 2026 einen Rekordumsatz von 5,8 Milliarden Dollar im Rechenzentrumsgeschäft erzielt – ein Plus von 57 Prozent im Vergleich zum Vorjahr. Der Grund: Immer mehr Unternehmen und staatliche KI-Projekte setzen auf eine zweite Anbieterquelle neben dem Marktführer.

Anzeige

Welche KI-Systeme gelten als Hochrisiko – und was müssen Unternehmen jetzt konkret tun? Die EU-KI-Verordnung stellt neue Regeln auf, die viele noch nicht kennen – dieser kostenlose Report klärt auf. Kostenlosen Umsetzungsleitfaden zum AI Act sichern

Rekordzahlen dank Diversifizierung

Die Zahlen sprechen eine klare Sprache. AMD hat sich als ernstzunehmende Alternative im KI-Geschäft etabliert. Vor allem bei Inference-Workloads – also der Ausführung trainierter KI-Modelle – kommt die Instinct-Plattform zunehmend zum Einsatz. Große Cloud-Anbieter investieren massiv in die Diversifizierung ihrer Lieferketten, um nicht von einem einzigen Hersteller abhängig zu sein.

Doch während das Rechenzentrumsgeschäft boomt, zeigt der breitere Chipmarkt ein geteiltes Bild. Laut einer Studie von Jon Peddie Research vom 11. Mai sind die Auslieferungen von Client-CPUs im Vergleich zum Vorquartal um 15 Prozent eingebrochen, im Jahresvergleich um 8,6 Prozent. Analysten führen dies auf mehrere Faktoren zurück: Vorzieheffekte durch Hardware-Upgrades im Jahr 2025, ausgelöst durch neue Zölle und das Ende des Windows-10-Supports, sowie steigende RAM-Preise und geopolitische Spannungen.

Ganz anders sieht es bei Server-CPUs aus: Hier stiegen die Auslieferungen um drei Prozent zum Vorquartal und 13,6 Prozent im Jahresvergleich. Der Gegensatz zwischen Consumer-Hardware und KI-Infrastruktur könnte kaum größer sein.

Neues Netzwerkprotokoll soll KI-Cluster beschleunigen

Um die physische Expansion von KI-Clustern zu unterstützen, setzen die Hersteller zunehmend auf effizientere Netzwerktechnik. Anfang Mai kündigte ein Konsortium aus AMD, OpenAI, Broadcom, Intel, Microsoft und Nvidia die Entwicklung eines neuen Protokolls namens Multipath Reliable Connection (MRC) an. Es soll die typischen Engpässe beim Training großer KI-Modelle beseitigen.

AMD hat MRC inzwischen an das Open Compute Project übergeben, um eine breite Branchenakzeptanz zu fördern. Die Technologie verteilt Datenpakete über mehrere Pfade im Netzwerk, reduziert Latenzzeiten und verhindert Überlastungen. Tests mit einem großen Cloud-Anbieter haben die Wirksamkeit bereits bestätigt. Die neue AMD Pensando Pollara 400 AI-Netzwerkkarte unterstützt den MRC-Standard von Haus aus.

Der Vorstoß kommt nicht von ungefähr. ARM-CEO Rene Haas prognostiziert, dass der Aufstieg der agentischen KI – autonome Systeme, die komplexe Aufgaben selbstständig erledigen – die CPU-Kernzahlen bis Ende des Jahrzehnts auf 512 pro Chip treiben könnte. ARM rechnet damit, dass Rechenzentren bis 2030 die vierfache CPU-Kapazität benötigen – ein Marktpotenzial von über 100 Milliarden Dollar. AMD bewegt sich bereits in diese Richtung: Zukünftige Zen-6-EPYC-Prozessoren könnten bis zu 256 Kerne bieten.

Anzeige

Neue KI-Gesetze, neue Cyberrisiken: Was kommt wirklich auf Ihr Unternehmen zu? Dieser kostenlose Report klärt auf, welche rechtlichen Pflichten und Bedrohungen Unternehmer jetzt kennen müssen. Gratis-E-Book zu Cyber Security und KI-Regeln herunterladen

Speicher-Engpässe bis 2028 – Auswirkungen auf Apple und Co.

Trotz des rasanten Ausbaus von GPU- und CPU-Kapazitäten leidet die Branche unter anhaltenden Lieferkettenproblemen. Laut einer Prognose von Silicon Motion vom 10. Mai werden Engpässe bei NAND-Flash und DRAM mindestens bis Ende 2028 anhalten. Der Grund: KI-Unternehmen sichern sich durch aggressive Langzeitverträge die Fertigungskapazitäten für Jahre.

Die Priorisierung von High Bandwidth Memory (HBM) für KI-Infrastruktur hat dramatische Auswirkungen auf andere Technologiebereiche. Apple etwa meldet erhebliche Lieferverzögerungen für seine High-End-Geräte, darunter Mac Studio, Mac mini und MacBook Pro. Die 32-GB-Variante des Mac mini wurde in einigen Regionen sogar ganz aus dem Programm genommen. Professionelle MacBook-Pro-Modelle mit 128 GB Arbeitsspeicher haben Lieferzeiten bis mindestens Juni.

Die steigenden Speicherkosten haben zudem eine Welle von Betrugsfällen ausgelöst. Am 10. Mai wurden gefälschte DDR5-RAM-Module auf asiatischen Online-Marktplätzen entdeckt. Die Sticks verwenden Plastikattrappen, die echte DRAM-Chips imitieren – ein lukratives Geschäft in einem Markt, in dem legitime Komponenten immer teurer und schwerer zu bekommen sind.

Wettbewerb verschärft sich – Cerebras erhöht IPO-Preis

Während AMD seinen Marktanteil ausbaut, profitiert auch die Konkurrenz vom Investorenhunger nach KI-Chips. Cerebras, ein Spezialist für großflächige KI-Wafer, hat seinen IPO-Preis auf 150 bis 160 Dollar pro Aktie angehoben. Die Nachfrage übersteigt das Angebot deutlich – ein Zeichen für den enormen Appetit auf spezialisierte KI-Siliziumlösungen.

Auch Nvidia sichert sich langfristige Kapazitäten. Gemeinsam mit IREN, ehemals Iris Energy, plant das Unternehmen den Bau von bis zu fünf Gigawatt KI-Infrastruktur mit einem Campus in Texas. Das Ausmaß dieser Investitionen zeigt, in welchen Dimensionen die Branche derzeit denkt.

AMD erweitert zudem sein Hardware-Ökosystem. Benchmarks vom 10. Mai für den Ryzen 9 9950X3D2 zeigen, dass der Chip bei maschinellen Lernaufgaben unter Unix rund zehn Prozent schneller ist als seine Vorgänger. Unter Windows fallen die Gewinne geringer aus, doch der Trend ist klar: Auch Consumer-Hardware wird für lokale KI-Inferenz optimiert.

Ausblick: Die „Memory Wall“ bleibt die größte Hürde

Der Erfolg von AMD im ersten Quartal 2026 beweist, dass der Markt für einen zweiten großen GPU-Anbieter durchaus Platz hat. Doch die anhaltenden Speicher-Engpässe, die Silicon Motion bis 2028 prognostiziert, werden das Wachstum bremsen.

Unternehmen müssen sich auf eine Zukunft einstellen, in der Netzwerkprotokolle wie MRC und hochkernige CPUs zusammenwirken, um die Effizienz bestehender GPU-Cluster zu maximieren. Während staatliche KI-Projekte weiter nach technologischer Unabhängigkeit streben, wird sich der Wettbewerb zwischen AMD, Nvidia und Newcomern wie Cerebras verschärfen. Entscheidend sind nicht nur rohe Rechenleistung, sondern vor allem die Fähigkeit, Lieferketten zu sichern und effiziente Netzwerke im großen Maßstab bereitzustellen. Für den Rest des Jahres 2026 wird die Branche daran gemessen, wie gut sie diese Herausforderungen meistert.

So schätzen die Börsenprofis Aktien ein!

<b>So schätzen die Börsenprofis Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
Für. Immer. Kostenlos.
de | wissenschaft | 69308922 |