Akamai, Tausenden

Akamai setzt mit Tausenden NVIDIA-GPUs auf KI am Netzrand

03.03.2026 - 15:00:23 | boerse-global.de

Der Cloud-Anbieter Akamai rüstet sein globales Netzwerk mit neuen NVIDIA-Blackwell-GPUs auf, um die Latenz für KI-Anwendungen zu senken und bis zu 86 Prozent der Kosten einzusparen.

Akamai setzt mit Tausenden NVIDIA-GPUs auf KI am Netzrand - Foto: über boerse-global.de
Akamai setzt mit Tausenden NVIDIA-GPUs auf KI am Netzrand - Foto: über boerse-global.de

Akamai investiert massiv in KI-Inferenz am Netzrand und stellt Tausende neuer NVIDIA-Blackwell-GPUs in seinem globalen Netzwerk bereit. Der Cloud- und Cybersicherheitsanbieter will damit die Latenz bei KI-Anwendungen drastisch reduzieren und Unternehmen bis zu 86 Prozent der Kosten sparen. Die Strategie zielt auf den wachsenden Markt für Echtzeit-KI ab.

Strategischer Schwenk zur dezentralen KI-Verarbeitung

Das Unternehmen adressiert ein zentrales Problem der KI-Branche: Während das Training großer Modelle in zentralen Rechenzentren stattfindet, leidet der praktische Einsatz – die Inferenz – oft unter langen Antwortzeiten. Eine Studie des MIT Technology Review identifizierte Latenz als größtes Hindernis für den breiten KI-Einsatz. Akamai will mit seiner dezentralen Architektur, die über 4.400 Standorte weltweit umfasst, eine Art „nervöses System“ für KI schaffen.

Anzeige

Während Unternehmen massiv in neue KI-Infrastrukturen investieren, rücken auch die regulatorischen Rahmenbedingungen immer stärker in den Fokus. Dieser kostenlose Leitfaden zur EU-KI-Verordnung hilft Ihnen dabei, Anforderungen und Fristen für Ihre Systeme rechtzeitig umzusetzen. Gratis E-Book: KI-Verordnung kompakt erklärt

„Wir konzentrieren uns auf die einzigartigen Anforderungen des Inferenz-Zeitalters“, erklärt Adam Karon, Chief Operating Officer bei Akamai. Die verteilte Rechenleistung ermögliche nicht nur schnellere Antworten, sondern auch lokale Anpassungen von KI-Modellen. Das ist entscheidend für die Einhaltung von Datenschutzvorschriften wie der DSGVO und erlaubt Feinjustierungen mit firmeneigenen Daten.

Blackwell-GPUs bilden das technische Rückgrat

Herzstück der Initiative sind NVIDIA RTX PRO™-Server mit den neuen Blackwell-Server-GPUs. Diese werden durch NVIDIA BlueField-3 DPUs ergänzt, die Infrastrukturdienste beschleunigen und isolieren. Die Hardware wird in spezialisierten GPU-Clustern im gesamten Akamai-Netzwerk installiert und verwandelt es effektiv in eine globale, latenzarme Rechenplattform.

Bereits die ersten Ausschüttungen der Blackwell-GPUs seien auf starke Nachfrage gestoßen, berichtet das Unternehmen. Die Kapazitäten sollen kontinuierlich ausgebaut werden. Dieser Schritt festigt eine dritte Säule im Geschäft von Akamai neben Content Delivery und Cybersicherheit – eine spezialisierte KI-Cloud.

Inferenz-Cloud verspricht massive Einsparungen

Die Ankündigung baut auf der im Oktober 2025 gestarteten Akamai Inference Cloud auf. Das Unternehmen verspricht konkrete Vorteile: Die Latenz soll im Vergleich zu traditionellen Hyperscaler-Architekturen um das 2,5-Fache sinken. Die Kosten für KI-Inferenz könnten für Unternehmen um bis zu 86 Prozent niedriger ausfallen.

Anzeige

Die rasante Entwicklung von KI-Technologien stellt auch die IT-Sicherheit vor völlig neue Herausforderungen. Erfahren Sie in diesem Experten-Report, wie Sie Ihr Unternehmen proaktiv vor modernen Cyberangriffen schützen, ohne Ihr Budget zu sprengen. Kostenloses E-Book zu Cyber-Security-Trends sichern

Für Entwickler entsteht damit eine neue Architektur-Option. Sie priorisiert Reaktionszeit und bietet potenzielle Kostenvorteile für anwendungsnahe KI-Workloads. Akamai positioniert sich als Enabler für die nächste Welle intelligenter Anwendungen, die sofortiges Echtzeit-Feedback erfordern – von interaktiven Assistenten bis zu autonomen Systemen.

Marktimplikationen: Herausforderung für die Hyperscaler

Akamais Großinvestition in Edge-KI platziert das Unternehmen an der Spitze eines Branchentrends. Während Tech-Giganten wie AWS, Google und Microsoft auf zentrale „KI-Fabriken“ setzen, demonstriert Akamai eine alternative Vision: Intelligenz, die dezentral am Netzrand verfügbar ist.

Diese Strategie könnte den Cloud-Markt neu justieren. Sie bietet eine Antwort auf den wachsenden Bedarf an physischer und agentenbasierter KI, bei der autonome Systeme wie Lieferdrohnen oder OP-Roboter Entscheidungen in Millisekunden treffen müssen. Die traditionellen Hyperscaler dürften es schwer haben, ein vergleichbar verteiltes Netzwerk kurzfristig zu replizieren.

Der Erfolg hängt nun von der Akzeptanz bei Entwicklern und Unternehmen ab. Akamai muss beweisen, dass seine Plattform nicht nur schneller und günstiger ist, sondern auch die robusten Tools für die Verwaltung verteilter KI-Anwendungen bietet. Gelingt das, könnte dieser dezentrale Ansatz die Leistungsfähigkeit und die Möglichkeiten Künstlicher Intelligenz neu definieren.

Hol dir jetzt den Wissensvorsprung der Aktien-Profis.

 <b>Hol dir jetzt den Wissensvorsprung der Aktien-Profis.</b>

Seit 2005 liefert der Börsenbrief trading-notes verlässliche Aktien-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr.
Jetzt abonnieren.

boerse | 68631211 |