OpenAI setzt mit GPT-5.3-Codex-Spark auf Cerebras statt Nvidia
13.02.2026 - 15:23:12OpenAI revolutioniert die Echtzeit-Programmierung mit einem neuen KI-Modell auf ungewöhnlicher Hardware. Der Wechsel weg von Nvidia könnte den KI-Chipmarkt aufmischen.
GPT-5.3-Codex-Spark ist da – und bringt eine strategische Überraschung mit. Das neue KI-Modell des US-Konzerns, spezialisiert auf Software-Entwicklung, läuft erstmals nicht auf Nvidia-Hardware, sondern auf Chips des Konkurrenten Cerebras Systems. Das teilte OpenAI am Donnerstag mit; seit Freitag ist das Modell für ChatGPT Pro-Nutzer verfügbar. Der Schritt markiert eine bedeutende Diversifizierung in der Lieferkette des KI-Giganten und könnte die Wettbewerbslandschaft für KI-Infrastruktur neu ordnen.
Das „latency-first“-Modell priorisiert blitzschnelle Antworten gegenüber tiefgreifender, autonomer Logik. Durch die Nutzung von Cerebras‘ Wafer Scale Engine 3 (WSE-3) erreicht Codex-Spark eine Generierungsgeschwindigkeit von über 1.000 Tokens pro Sekunde. Entwickler sollen so in einen kontinuierlichen „Flow-Zustand“ kommen, wie OpenAI es beschreibt.
Geschwindigkeitsrekord durch Chip-Architekturwechsel
Der entscheidende Unterschied zu früheren GPT-Modellen steckt in der Hardware. Während diese ausschließlich auf Nvidia-GPUs trainiert und betrieben wurden, läuft Codex-Spark auf Cerebras‘ CS-3-Systemen. Deren WSE-3-Prozessor, etwa so groß wie ein Essteller, beherbergt vier Billionen Transistoren und einen On-Chip-SRAM-Speicher, der deutlich schneller ist als der HBM-Speicher traditioneller Grafikkarten.
Diese Architektur bekämpft das größte Problem KI-gestützter Programmierung: Latenz. Laut OpenAIs technischer Dokumentation konnte die Client-Server-Roundtrip-Zeit um 80 Prozent und die „Time-to-First-Token“ um 50 Prozent reduziert werden. Das Ergebnis ist ein Assistenzsystem, das sich nahezu verzögerungsfrei anfühlt und komplexe Code-Blöcke in Millisekunden statt Sekunden generiert.
Die EU-KI-Verordnung betrifft jetzt alle, die KI-Systeme entwickeln und einsetzen — von Startups bis zu großen Forschungsteams. Wer Modelle wie Codex-Spark in Produktion bringt, muss Kennzeichnungspflichten, Risikoklassen und umfangreiche Dokumentationsanforderungen beachten; ein kostenloser Umsetzungsleitfaden erklärt, welche Pflichten auf Entwickler und Anbieter zukommen und welche Fristen zu beachten sind. Jetzt kostenlosen KI-Verordnungs-Leitfaden herunterladen
Für Branchenbeobachter ist dies das erste greifbare Ergebnis der milliardenschweren Partnerschaft zwischen OpenAI und Cerebras vom Januar 2026. Indem OpenAI latenzkritische Inferenz-Aufgaben zu Cerebras auslagert, diversifiziert es nicht nur seine Lieferkette, sondern optimiert auch seine beliebtesten Entwickler-Tools für maximale Reaktionsfähigkeit.
Der Kompromiss: Mehr Tempo, weniger Tiefgang
Doch der Geschwindigkeitsvorteil hat seinen Preis. Bei Codex-Spark handelt es sich um eine verkleinerte, „destillierte“ Version des Flaggschiff-Modells GPT-5.3-Codex. Es ist für gezielte Code-Änderungen und interaktive Führung optimiert, nicht für langfristiges, autonomes Problemlösen.
Benchmark-Daten unterstreichen diesen Unterschied. Im Terminal-Bench 2.0, einem Standardtest für KI-Agenten bei Terminalbefehlen, erreichte Codex-Spark eine Genauigkeit von 58,4 Prozent. Das volle GPT-5.3-Codex-Modell dominiert die Bestenliste hingegen mit 77,3 Prozent.
Diese Lücke definiert den Einsatzzweck: Codex-Spark soll nicht das große Modell bei tiefgreifenden Aufgaben ersetzen. Stattdessen dient es als schneller Begleiter für die 90 Prozent der täglichen Programmierarbeit – Syntax-Korrekturen, Boilerplate-Generierung oder Logik-Checks – bei denen Warten den Fokus des Entwicklers zerstören würde.
„Flow State“: KI als Gesprächspartner in Echtzeit
Das Modell ist ab sofort für ChatGPT Pro-Abonnenten in der Codex-App, der Kommandozeile und der Visual Studio Code-Erweiterung verfügbar. Frühe Nutzerberichte beschreiben einen fundamentalen Wandel in der Interaktion.
Da das Modell Text schneller generiert, als ein Mensch lesen kann, verschwindet das „Eingabe-und-Warten“-Modell. Es entsteht eine konversationsähnliche, Echtzeit-Kollaboration. Die KI ist „unterbrechbar“: Entwickler können eine Generierung mitten im Fluss stoppen, um die Logik umzulenken, ohne Strafe fürchten zu müssen.
Um diesen Hochgeschwindigkeits-Workflow zu unterstützen, startet Codex-Spark mit einem Kontextfenster von 128.000 Tokens. Allerdings ist es derzeit auf reinen Text beschränkt und verfügt nicht über die multimodalen Fähigkeiten seiner größeren Geschwister. Laut OpenAI ist das Modell standardmäßig darauf ausgelegt, minimalinvasive, präzise Änderungen am Code vorzunehmen, um „halluzinierte Refactorings“ zu vermeiden.
Beben am KI-Chipmarkt: Nvidias Dominanz wackelt
Die Veröffentlichung sendet starke Signale an den Halbleitermarkt. Jahrelang hielt Nvidia ein Quasi-Monopol auf das Training und den Betrieb von Spitzen-KI-Modellen. OpenAIs Entscheidung, ein Produktivmodell wie Codex auf Cerebras-Hardware zu betreiben, validiert die Technologie des Konkurrenten in einem riesigen Maßstab.
Analysten sehen darin eine doppelte Strategie. Erstens entlastet es die enorm nachgefragten Nvidia H100- und Blackwell-GPUs. Diese wertvollen Ressourcen können so für das Training des kommenden GPT-6 und für schwere Reasoning-Modelle reserviert bleiben. Zweitens verschafft es OpenAI in den laufenden Lieferketten-Verhandlungen der KI-Ära mehr Hebelkraft.
Berichten zufolge umfasst die Cerebras-Partnerschaft bis zu 750 Megawatt Rechenkapazität über die nächsten drei Jahre. Sollte sich Codex-Spark bewähren, könnte der Weg für weitere spezialisierte „Spark“-Modelle in Bereichen wie kreativem Schreiben oder Datenanalyse geebnet werden – und die Hardware-Landschaft weiter fragmentieren.
Ausblick: Forschungspreview mit Expansionsplänen
OpenAI stuft die aktuelle Version als „Research Preview“ für Pro-Nutzer ein. Der Zugang für Enterprise- und Team-Tarife soll in den kommenden Wochen folgen. Das Unternehmen deutete auch zukünftige Updates an, die „Long-Horizon-Reasoning“-Fähigkeiten in die Spark-Linie bringen könnten, möglicherweise durch hybride Architekturen.
Die Veröffentlichung von Codex-Spark zeigt eine Zukunft, in der KI-Modelle nicht nur „klüger“, sondern auch hochspezialisierter werden. Indem OpenAI seine Coding-Linie in „hohe Intelligenz“ (Codex) und „hohe Geschwindigkeit“ (Codex-Spark) aufteilt, anerkennt es eine einfache Wahrheit: Für professionelle Entwickler ist oft die Geschwindigkeit des Denkens die wichtigste Kennzahl überhaupt.
Die Nutzungslimits für die Preview sind von den Standard-Kontingenten getrennt. OpenAI warnt jedoch, dass der experimentelle Charakter des Hardware-Rollouts zu schwankender Verfügbarkeit in Stoßzeiten führen kann.
@ boerse-global.de
Hol dir den Wissensvorsprung der Profis. Seit 2005 liefert der Börsenbrief trading-notes verlässliche Trading-Empfehlungen – dreimal die Woche, direkt in dein Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr.
Jetzt anmelden.


