Anthropic, KI-Riese

Anthropic: KI-Riese wächst sich in die Krise

12.03.2026 - 00:00:19 | boerse-global.de

Anthropic erleidet Systemausfälle durch Rekordnachfrage, während ein Konflikt mit dem US-Verteidigungsministerium zu Klagen und potenziellen Milliardeneinbußen führt.

Anthropic: KI-Riese wächst sich in die Krise - Foto: über boerse-global.de
Anthropic: KI-Riese wächst sich in die Krise - Foto: über boerse-global.de

KI-Unternehmen Anthropic kämpft mit Systemausfällen, während ein Streit mit dem Pentagon und ein Nutzerboom es in eine Zwickmühle bringen. Der Aufstieg zum App-Store-Champion wird zur Belastungsprobe für die Infrastruktur.

Am Mittwochmorgen brach der Dienst des KI-Unternehmens Anthropic für tausende Nutzer zusammen. Verantwortlich ist ein beispielloser Ansturm neuer User, der direkt mit einer eskalierenden Auseinandersetzung mit dem US-Verteidigungsministerium zusammenhängt. Gleichzeitig treibt das Unternehmen strategische Updates voran und gründet ein eigenes Institut für gesellschaftliche Folgenabschätzung – eine Woche der Extreme für den KI-Hoffnungsträger.

Anzeige

Seit August 2024 gelten auch in der EU neue Regeln für den Einsatz künstlicher Intelligenz, die viele Unternehmen vor Herausforderungen stellen. Dieser kostenlose Leitfaden erklärt Ihnen kompakt die wichtigsten Kennzeichnungspflichten und Risikoklassen der neuen EU-KI-Verordnung. Gratis E-Book mit Umsetzungsleitfaden herunterladen

Systemkollaps durch Rekordnachfrage

Die Server des Unternehmens bogen sich am 11. März unter der Last. Auf der Ausfallplattform Downdetector gingen über 10.000 Störungsmeldungen ein, hauptsächlich für die Hauptschnittstelle Claude Chat. Anthropic bestätigt die Probleme und meldete erhöhte Fehlerraten sowohl für die Consumer-Plattform Claude.ai als auch für den Entwickler-Assistenten Claude Code.

Bis zum späten Vormittag war das Kernproblem identifiziert und eine Lösung in Bereitstellung. Die API für Geschäftskunden blieb nach Unternehmensangaben stabil. Es ist bereits der zweite größere Ausfall binnen eines Monats – ein klares Zeichen für die wachsenden Schmerzen des Erfolgs.

Der Grund für den Nutzerboom? Kürzlich überholte Anthropics KI-Assistent Claude den langjährigen Marktführer ChatGPT als meistgeladene kostenlose App in den USA. Dieser Popularitätsschub folgte auf die medienwirksame Weigerung des Unternehmens, seine Technologie für autonome Waffensysteme oder Massenüberwachung freizugeben. Die öffentliche Zustimmung für diese ethische Haltung trifft nun auf technische Grenzen.

Strategische Upgrades sollen Nutzer binden

Während die Ingenieure die Infrastruktur stabilisieren, rollt Anthropic gezielt neue Features aus, um die gewonnenen Nutzer zu halten. Seit dem 2. März ist die vielgefragte Memory-Funktion auch für kostenlose Accounts verfügbar. Sie erlaubt es der KI, Kontext und Nutzerpräferenzen über mehrere Gespräche hinweg zu behalten.

Noch cleverer: Ein spezielles Import-Tool ermöglicht es Usern, ihre gespeicherten Erinnerungen und Kontexte von Konkurrenzplattformen wie ChatGPT und Google Gemini zu übertragen. Marketing-Experten sehen darin eine klare Strategie, die Wechselhürden für unzufriedene Nutzer der etablierten KI-Giganten zu senken.

Diese Verbraucherfreundlichkeit baut auf leistungsstarken technologischen Fundamenten auf. Im Februar brachte Anthropic die Claude 4.6-Modellfamilie auf den Markt. Sie bietet in der Beta-Version ein kontextuelles Fenster von einer Million Tokens und nahezu sofortige Reasoning-Fähigkeiten. Claude Code wurde so weit verbessert, dass er jahrzehntealte Sicherheitslücken in Open-Source-Projekten identifizieren und komplexe Software-Engineering-Aufgaben autonom ausführen kann.

Der Zündfunke: Der offene Konflikt mit dem Pentagon

Der aktuelle Nutzeransturm ist direkt mit einem Machtkampf in Washington verknüpft. Die Spannungen eskalierten Anfang März, als das US-Verteidigungsministerium Anthropic offiziell zum Risiko für die Lieferkette erklärte – eine Einstufung, die normalerweise ausländischen Gegnern vorbehalten ist.

Ein interner Pentagon-Vermerk vom 6. März, verteilt am 9. März, ordnet an, alle Anthropic-Technologie aus nationalen Sicherheitssystemen innerhalb von 180 Tagen zu entfernen. Dies betrifft explizit Systeme für Nuklearwaffen, Cyberkriegsführung und Raketenabwehr.

Anthropic ging in die Offensive und reichte am 9. März zwei Klagen gegen die US-Regierung ein. Das Ziel: Die Rücknahme der Risikoeinstufung und die Aufhebung der Ausphasungs-Anordnungen. In den finanziellen Begleitdokumenten wird das enorme Risiko klar: Das Unternehmen warnt vor bis zu fünf Milliarden Euro an entgangenen Umsätzen. Geschäftspartner hätten bereits Verhandlungen auf Eis gelegt oder Ausstiegsklauseln gefordert.

Neues Institut für gesellschaftliche Folgen

Trotz Infrastruktur-Chaos und Rechtsstreit positioniert sich Anthropic weiter als Vordenker für verantwortungsvolle KI. Am 11. März kündigte das Unternehmen die Gründung des Anthropic Institute an, eines internen Think Tanks.

Geleitet von Mitgründer Jack Clark, soll das Institut die tiefgreifenden wirtschaftlichen und gesellschaftlichen Verwerfungen durch fortgeschrittene KI-Systeme analysieren. Es bündelt die bestehende Wirtschaftsforschung, Modellierungen zu gesellschaftlichen Auswirkungen und sogenannte „Red-Teaming“-Ansätze für Grenzbereichs-KI. Ziel ist es, mit dem einzigartigen Zugang zu Frontier-Modelldaten potenzielle Arbeitsplatzverlagerungen zu studieren und mit stark betroffenen Branchen in Dialog zu treten.

Anzeige

Die rasante Entwicklung mächtiger KI-Systeme bringt nicht nur regulatorische, sondern auch neue Sicherheitsrisiken für die Wirtschaft mit sich. Was Geschäftsführer heute über Cyber Security und die aktuelle Gesetzeslage wissen müssen, enthüllt dieser Experten-Report. Kostenloses E-Book zu Cyber-Security-Trends sichern

Marktspaltung mit ungewissem Ausgang

Die Ereignisse zeigen eine deutliche Spaltung im KI-Sektor. Während Konkurrenten wie OpenAI aktiv Verteidigungsaufträge für klassifizierte Umgebungen anstreben, beharrt Anthropic auf strikten ethischen Grenzen für den Einsatz seiner Modelle.

Beobachter stellen fest: Diese Haltung wurde unbeabsichtigt zu einem mächtigen Marketinginstrument. Der öffentliche Widerstand gegen die Strafmaßnahmen des Pentagons trieb die Nutzerzahlen in die Höhe. Doch wie die jüngsten Ausfälle beweisen, ist die Skalierung der Infrastruktur für politisch motivierte Nachfrage eine immense technische Herausforderung. Die möglichen Milliardeneinbußen bei Unternehmens- und Regierungsaufträgen werfen zudem die Frage auf, wie lange sich das strikte Militärverbot finanziell tragen lässt.

Die kommenden Wochen werden zur Bewährungsprobe. Das Engineering-Team muss die Plattform stabilisieren, um die Millionen Neunutzer nicht zu verlieren. Parallel wird der Rechtsstreit mit der US-Regierung einen Präzedenzfall schaffen, inwieweit die Exekutive Technologienutzung aufgrund von Unternehmenspolitik verbieten kann. Gelingt es Anthropic, beides zu meistern, könnte es sich als primäre Alternative im globalen Markt für generative KI etablieren.

Hol dir jetzt den Wissensvorsprung der Aktien-Profis.

 <b>Hol dir jetzt den Wissensvorsprung der Aktien-Profis.</b>

Seit 2005 liefert der Börsenbrief trading-notes verlässliche Aktien-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
Für. Immer. Kostenlos.

boerse | 68660605 |