Giga, Computing

Giga Computing präsentiert neue KI-Hardware auf OPC-Gipfel

29.04.2026 - 06:48:20 | boerse-global.de

Auf dem OCP Summit präsentieren Hersteller neue KI-Hardware. Xiaomi und Samsung zeigen eigene Chips, während Cloud-Anbieter ihre Infrastruktur ausbauen.

Giga Computing präsentiert neue KI-Hardware auf OPC-Gipfel - Foto: über boerse-global.de
Giga Computing präsentiert neue KI-Hardware auf OPC-Gipfel - Foto: über boerse-global.de

Auf dem OCP EMEA Summit in dieser Woche stellten führende Hersteller eine neue Generation von Hardware vor, die speziell für die extremen Anforderungen generativer KI und großer Datenverarbeitung ausgelegt ist. Giga Computing, eine Tochter von GIGABYTE, präsentierte mehrere Plattformen auf Basis des Open Compute Projects (OCP), die für hochverdichtete Umgebungen optimiert sind. Diese Entwicklungen fallen in eine Zeit, in der die Branche gleichzeitig auf Flüssigkühlung und spezialisierte Chips setzt – und mit erheblichen Lieferkettenproblemen kämpft.

Anzeige

Während die Hardware-Infrastruktur für generative KI rasant wächst, rücken auch die rechtlichen Rahmenbedingungen in den Fokus von Unternehmen. Dieser kostenlose Umsetzungsleitfaden zum EU AI Act hilft Ihnen, die neuen Anforderungen und Fristen der KI-Verordnung rechtzeitig zu verstehen. EU AI Act in 5 Schritten verstehen

Flüssigkühlung und Blackwell-Architektur im Fokus

Die neuesten Angebote von Giga Computing auf dem Gipfel zielen auf Flexibilität zwischen Luft- und Flüssigkühlung ab – eine entscheidende Anforderung, da die Leistungsdichte von KI-Beschleunigern weiter steigt. Das Unternehmen zeigte die TO46-SD3, eine flüssigkeitsgekühlte Plattform für den NVIDIA HGX B300, sowie die TO86-SD1, ein luftgekühltes System für den NVIDIA HGX B200. Diese Systeme sind Teil eines breiteren Trends, KI-Infrastruktur durch OCP-basierte Designs zu standardisieren, damit Rechenzentren effizienter skalieren können.

Ergänzend dazu stellte MSI die XpertStation WS300 vor, ein Schreibtisch-KI-System für lokale Umgebungen. Die WS300 nutzt den NVIDIA GB300 Grace Blackwell Ultra Superchip und bietet 748 GB vereinheitlichten Speicher (HBM3e und LPDDR5X). Mit dualer 400GbE-Anbindung über NVIDIA ConnectX-8 liefert das System bis zu 20 PetaFLOPS Leistung – und ist ab sofort bestellbar.

Auch in der Cloud- und Hosting-Branche beschleunigt sich der Einsatz von Blackwell-Infrastruktur. Alpha Compute gab ein Update zu seinen NVIDIA Blackwell GPU-Installationen: Der ALPHA-01-Cluster in Kanada mit 504 B200 GPUs soll am 8. Mai 2026 in Betrieb gehen, nach früheren Verzögerungen. Ein zweiter Cluster in Schweden, ALPHA-02, wird voraussichtlich im Juni 2026 mit 576 B300 GPUs ans Netz gehen. Das Unternehmen rechnet mit erheblichen jährlichen Umsätzen, sobald die Cluster vollständig laufen.

Souveräne Chips: Xiaomi, Samsung und europäische Innovationen

Der Drang nach Hardware-Unabhängigkeit verändert den globalen Halbleitermarkt grundlegend. Am 28. April 2026 gab Xiaomi-CEO Lei Jun bekannt, dass der firmeneigene 3nm-Flaggschiffchip Xuanjie O1 die Marke von einer Million ausgelieferter Einheiten überschritten hat. Damit ist Xiaomi das vierte Unternehmen weltweit, das eigenständig High-End-Smartphone-SoCs entwickelt. Die Xuanjie-Serie, erstmals im Mai 2025 vorgestellt, wird derzeit im Xiaomi 15S Pro und Pad 7 Ultra verbaut – und soll künftig auch in Elektroautos zum Einsatz kommen.

Auch Samsung treibt die Grenzen mobiler KI-Siliziumtechnologie voran. Das Unternehmen stellte am 28. April 2026 die Exynos Neural Super Sampling (ENSS) -Technologie vor, die im Exynos 2600 steckt. Samsung bezeichnet ihn als den ersten 2nm-Mobilchip der Welt. Erste Benchmarks zeigen eine um 15 Prozent höhere Grafikleistung als bei Konkurrenzmodellen und eine führende Position bei Raytracing-Fähigkeiten. Der Chip soll in den Standard- und Plus-Modellen der kommenden Galaxy S26-Serie zum Einsatz kommen.

In Europa zeigt sich lokale Innovation bei spezialisierter KI-Hardware. Anker Innovations enthüllte am 28. April 2026 seine „Thus“-KI-Chip-Plattform. Der in Deutschland produzierte Chip nutzt eine Compute-in-Memory-Architektur auf Basis von NOR-Flash, um lokale KI-Aufgaben zu bewältigen. Seine erste Anwendung findet er in High-End-Kopfhörern, wo er Berichten zufolge 150-mal mehr KI-Rechenleistung für die Umgebungsgeräuschunterdrückung bietet als bisherige Lösungen. Ähnlich präsentierte das Barkhausen-Institut in Dresden den „Masur“ , eine RISC-V-basierte Plattform-Schaltung, die die Chipdesignkosten auf einen Bruchteil des Branchenstandards senken soll.

Cloud-Infrastruktur und lokaler Inferenzmarkt wachsen

Der Markt für KI-Inferenz und Server-Hardware wird zunehmend wettbewerbsintensiver, da Anbieter die Kosten für Unternehmenskunden senken wollen. Tenstorrent gab am 28. April 2026 die allgemeine Verfügbarkeit seiner Galaxy Blackhole AI Server bekannt. Ein 6U-System mit 32 Blackhole-Beschleunigern kostet 110.000 Euro (umgerechnet) und bietet 23 PetaFLOPS FP8-Leistung. Tenstorrent betont die Fähigkeit des Systems, die überwiegende Mehrheit der Modelle auf der Hugging Face-Plattform zu unterstützen – eine kosteneffiziente Alternative für hohe Durchsatzlasten.

Im Cloud-Bereich launchte DigitalOcean am 28. April 2026 seinen Inference Engine mit Funktionen wie einem Inferenz-Router für skalierbare agentische Workloads. Erste Kundenberichte deuten auf eine Senkung der Inferenzkosten um bis zu 67 Prozent hin. Leistungsanalysen zeigen, dass das System bei bestimmten Modellen schnellere Ausgabe-Geschwindigkeiten liefert als große Wettbewerber wie Amazon Bedrock.

Gleichzeitig verschiebt sich die Beziehung zwischen großen KI-Entwicklern und Cloud-Anbietern. Amazon gab am 28. April 2026 eine massive Ausweitung seiner Partnerschaft mit OpenAI bekannt. Dieser Schritt folgt auf eine Lockerung der exklusiven Bindung zwischen OpenAI und Microsoft. AWS Bedrock wird nun OpenAIs Codex und neue verwaltete Agent-Dienste anbieten. Diese Diversifizierung erlaubt OpenAI die Zusammenarbeit mit AWS und Oracle, während Microsoft seine Kooperation mit Anthropic deutlich ausgebaut hat.

Anzeige

Mit der zunehmenden Integration von KI in Unternehmensprozesse steigen auch die Risiken für die digitale Sicherheit. Erfahren Sie in diesem kostenlosen E-Book, wie Sie Ihr Unternehmen proaktiv vor neuen Cyberbedrohungen schützen und gleichzeitig gesetzliche Anforderungen erfüllen. Gratis-E-Book: Cyber Security im KI-Zeitalter

Ressourcenknappheit bremst Entwicklungszyklen

Trotz der Flut neuer Produktankündigungen bleibt die Hardware-Branche anfällig für Komponentenengpässe und steigende Materialkosten. Valve bestätigte am 27. und 28. April 2026, dass der zweite Steam Controller am 4. Mai 2026 für 99 Euro auf den Markt kommt. Die Veröffentlichung der dazugehörigen Steam Machine wurde jedoch verschoben. Valve-Hardware-Ingenieure erklärten, dass der Controller weder RAM noch internen Speicher benötigt und daher von der aktuellen „RAM-Krise“ verschont blieb, die die Preise für speicherintensive Geräte in die Höhe treibt.

Der Speichermangel betrifft auch große GPU-Hersteller. NVIDIA bestätigte am 28. April 2026 die Veröffentlichung einer 12GB-Version der GeForce RTX 5070 Laptop-GPU als Ergänzung zum bestehenden 8GB-Modell. Grund sind Engpässe bei 16Gb GDDR7-Modulen, weshalb das Unternehmen auf dichtere 24Gb-Module umsteigt. Laptops mit dieser neuen Konfiguration werden voraussichtlich im Juni 2026 von verschiedenen Herstellern erscheinen.

Im regulatorischen Bereich trat am 28. April 2026 die EU-Verordnung zum einheitlichen Ladegerät für Laptops in Kraft. Die Richtlinie schreibt USB-C-Kompatibilität vor und zielt darauf ab, jährlich rund 11.000 Tonnen Elektroschrott zu reduzieren. Ähnliche Anforderungen gelten bereits seit Ende 2024 für Smartphones und Tablets.

Ausblick: 2nm-Übergang und Ausbau globaler KI-Kapazitäten

Blick auf Ende 2026: Die Branche bereitet sich auf einen massiven Ausbau der Fertigungskapazitäten vor, um den KI-Boom zu unterstützen. Samsung treibt die Fertigstellung seiner Pyeongtaek P4-Anlage voran, die bis Ende 2026 vollständig in Betrieb gehen soll. Diese Expansion zielt speziell auf eine Führungsposition bei HBM4 und anderen hochbandbreitigen Speicherprodukten ab, die für KI-Server unerlässlich sind.

Die Technologie-Roadmaps deuten auf einen raschen Übergang zu 2nm-Prozessen hin. Während Samsung bereits seinen 2nm-Mobilchip vorgestellt hat, werden andere Entwickler voraussichtlich folgen, um die Effizienz von KI-Workloads zu verbessern. In Großbritannien bereitet die Regierung einen umfassenden KI-Hardware-Plan für die London Tech Week im Juni 2026 vor, der 100 Millionen Pfund für Chip-Beschaffung zur Sicherung nationaler Fähigkeiten vorsieht. Diese gemeinsamen Anstrengungen deuten darauf hin, dass – trotz anhaltender Lieferkettenvolatilität – die Infrastruktur für die nächste Stufe der KI-Entwicklung durch globale Partnerschaften und souveräne Technologieinitiativen rasch aufgebaut wird.

So schätzen die Börsenprofis Aktien ein!

<b>So schätzen die Börsenprofis  Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
Für. Immer. Kostenlos.
de | boerse | 69255648 |