Anthropic, Milliarden-Deal

Anthropic setzt mit Milliarden-Deal auf eigene KI-Chips

11.04.2026 - 00:30:20 | boerse-global.de

Der KI-Pionier Anthropic treibt mit einer milliardenschweren Chip-Allianz seine Unabhängigkeit voran, während sein neues Modell Mythos Behörden mit der Entdeckung kritischer Sicherheitslücken alarmiert.

Anthropic setzt mit Milliarden-Deal auf eigene KI-Chips - Foto: über boerse-global.de

Der KI-Marktführer Anthropic treibt seine Unabhängigkeit mit einer 50-Milliarden-Euro-Infrastruktur-Allianz voran – während sein neues „Mythos“-Modell Sicherheitsbehörden weltweit alarmiert. Die Entwicklungen zeigen den schmalen Grat zwischen rasanter Technologie-Expansion und dringend benötigten Sicherheitsvorkehrungen.

Strategischer Schwenk: Vom Cloud-Kunden zum Chip-Designer

Anthropic will künftig eigene KI-Chips entwickeln. Das berichteten Insider am 10. April. Das Projekt befinde sich zwar in einer frühen Phase, doch die Kosten für die Entwicklung solcher Spezial-Hardware werden auf rund 500 Millionen Euro geschätzt. Bislang setzt das Unternehmen auf Rechenleistung von Google und Amazon.

Anzeige

Die rasante Entwicklung von KI-Modellen wie bei Anthropic bringt neue rechtliche Herausforderungen mit sich, die bereits seit August 2024 verbindlich sind. Dieser kostenlose Leitfaden bietet Unternehmen einen kompakten Überblick über alle Anforderungen, Pflichten und Fristen des neuen EU AI Acts. EU AI Act in 5 Schritten verstehen

Dieser Schritt hin zu eigener Hardware folgt auf einen langfristigen Vertrag mit Google und dem Chip-Designer Broadcom. Er bildet das Herzstück einer Infrastruktur-Strategie im Volumen von 50 Milliarden Euro. Die Partnerschaft mit Broadcom gilt als entscheidend, um Zugang zu Hochleistungs-Netzwerk- und Rechenkomponenten für immer komplexere Modelle zu sichern.

Das finanzielle Wachstum von Anthropic ist atemberaubend. Analysten gehen davon aus, dass die umsatzstarke Ertragskraft des Unternehmens 2026 die Marke von 30 Milliarden Euro übersteigen wird. Ende 2025 lag dieser Wert noch bei neun Milliarden Euro. Getrieben wird dieser Boom durch die zunehmende Nutzung in Unternehmen und den Ausbau von Abo-Diensten.

Während Anthropic seine US-zentrierte Infrastruktur ausbaut, setzte der Hauptkonkurrent OpenAI am 10. April ein gegenteiliges Zeichen. Das „Stargate“-Rechenzentrum-Projekt im Vereinigten Königreich wurde vorerst gestoppt. Als Gründe nannte OpenAI hohe Energiepreise, Abhängigkeit von Gas und regulatorische Hürden.

Sicherheits-Alarm: „Mythos“ findet Jahrzehnte alte Software-Lücken

Die eigentliche Zäsur markiert jedoch ein anderes Produkt: Das „Mythos“-Modell von Anthropic. Seine Fähigkeit, bisher unentdeckte Sicherheitslücken aufzuspüren, löste am 10. April einen Krisengipfel der US-Finanzaufsicht aus. US-Finanzminister Bessent und Fed-Chef Powell berieten mit den CEOs systemrelevanter Banken über die systemischen Risiken der KI.

Technische Benchmarks des Unternehmens zeigen, warum die Beunruhigung so groß ist. In einem Test mit der Firefox-JavaScript-Engine erreichte „Mythos“ eine Erfolgsquote von 181 – das Vorgängermodell schaffte lediglich eine Quote von 2. Das Modell kann laut Anthropic in Stunden ausgeklügelte Cyberangriffe generieren, für die menschliche Experten Wochen benötigen.

Die Reaktion folgte umgehend: Der Zugang zu „Mythos“ wurde drastisch eingeschränkt. Nur zwölf Cybersicherheitsfirmen und etwa 40 Organisationen dürfen im Rahmen des „Project Glasswing“ mit dem Modell arbeiten. Ziel ist es, Verteidigern Zeit zum Schließen der entdeckten Lücken zu geben.

Deutsche Behörden sehen darin einen Paradigmenwechsel. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) warnte am 10. April, die Welt könne bald einen Punkt erreichen, an dem klassische, unbekannte Software-Schwachstellen nicht mehr existieren – weil die KI sie zuerst gefunden und ausgenutzt hat.

Marktduell und regulatorischer Gegenwind

Parallel zum Sicherheits-Alarm läuft der Wettbewerb auf dem KI-Markt unvermindert weiter. Am 10. April brachte OpenAI eine neue „ChatGPT Pro“-Stufe für 100 US-Dollar monatlich auf den Markt. Sie richtet sich gezielt an Entwickler und konkurriert direkt mit Anthropics „Claude Max“-Abo. Der Codex-Dienst von OpenAI verzeichnet wöchentlich über drei Millionen Nutzer.

Anzeige

Neue KI-Technologien verschärfen die Bedrohungslage durch Cyberkriminelle massiv und erfordern von Unternehmern ein proaktives Handeln. Ein kostenloser Report klärt auf, welche rechtlichen Pflichten und neuen Cyberrisiken Sie jetzt kennen müssen, um Ihre Firma langfristig zu schützen. Gratis-E-Book zu Cyber Security Trends herunterladen

Doch der regulatorische Druck wächst, besonders in der EU. Die EU-Kommission leitete am 10. April eine Überprüfung ein, ob OpenAI und ChatGPT als „sehr große Online-Suchmaschine“ nach dem Digital Services Act (DSA) eingestuft werden müssen. Auslöser ist die Nutzerzahl: Zwischen April und September 2025 hatte der Dienst in der EU 120,4 Millionen monatliche Nutzer. Eine DSA-Einstufung würde deutlich strengere Transparenz- und Risikominderungspflichten bedeuten.

Auch in den USA mehren sich die rechtlichen Herausforderungen. In Florida eröffnete Generalstaatsanwalt James Uthmeier am 10. April eine Untersuchung gegen OpenAI. Gleichzeitig reichte eine Stalking-Opferin, bekannt als Jane Doe, Klage ein. Sie wirft dem Unternehmen vor, durch mangelnde Sicherheitsbarrieren die Wahnvorstellungen ihres Peinigers befeuert zu haben.

Fragmentierte Regulierung und neue Sicherheitslücken

Die Regulierung der KI entwickelt sich polyzentrisch. Während die EU mit dem KI-Gesetz und dem DSA auf einen zentralisierten Rahmen setzt, herrscht in den USA ein Flickenteppich aus Landesgesetzen. Dies zeigte sich am 10. April, als Elon Musks xAI Klage gegen den Bundesstaat Colorado einreichte, um ein Gesetz gegen „algorithmische Diskriminierung“ zu blockieren.

Gleichzeitig offenbaren sich weiterhin fundamentale Schwachstellen in den KI-Sicherheitssystemen. Forscher präsentierten am 10. April eine neue Jailbreak-Methode namens „Sockpuppeting“. Mit einer einzigen Codezeile konnten sie die Sicherheitsbarrieren von elf verschiedenen Modellen umgehen – darunter solche von Anthropic, OpenAI und Google. Die Erfolgsquote lag bei Googles Gemini 2.5 Flash bei 15,7 Prozent. Es ist ein fortwährendes Wettrüsten zwischen Entwicklern und denen, die die Grenzen der aktuellen Sicherheitsarchitekturen ausloten.

Die kommenden Monate werden zeigen, ob Initiativen wie „Project Glasswing“ ein Modell für den verantwortungsvollen Umgang mit übermächtigen KI-Fähigkeiten sein können. Eines ist klar: Die Phase der Selbstregulierung durch Tech-Konzerne neigt sich dem Ende zu. Der Dialog zwischen Silicon Valley und Regierungen weltweit wird sich von theoretischer Ethik hin zu konkreten nationalen Sicherheitsprotokollen verschieben.

So schätzen die Börsenprofis Aktien ein!

<b>So schätzen die Börsenprofis  Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
Für. Immer. Kostenlos.
de | boerse | 69120893 |