Anthropic: KI-Pionier zwischen Gerichtssaal, Serverausfällen und Geheimnis-Leak
30.03.2026 - 14:09:22 | boerse-global.de
Die letzte Märzwoche 2026 wird für den KI-Pionier Anthropic zur Zerreißprobe. Während das Unternehmen vor einem US-Bundesrichter einen juristischen Teilerfolg gegen das Pentagon erringt, kämpfen Nutzer mit drastischen Leistungsbeschränkungen. Gleichzeitig sickern interne Details zum nächsten KI-Modell durch – eine gefährliche Mischung aus rechtlichem, technischem und PR-Druck.
Juristischer Atemstoß im Streit mit dem Pentagon
Ein Bundesrichter in San Francisco hat Anthropic vorerst vor einer folgenschweren Einstufung bewahrt. Die US-Regierung wollte das Unternehmen als nationales Sicherheitsrisiko in der Lieferkette brandmarken. Diese seltene Maßnahme, erstmals gegen einen großen Technologiekonzern angewendet, hätte einen sechsmonatigen Ausstieg aller Bundesbehörden aus der Anthropic-Technologie bedeutet.
Während Anthropic ethische Standards gegen staatliche Forderungen verteidigt, müssen Unternehmen in Europa bereits konkrete gesetzliche Vorgaben erfüllen. Dieser kostenlose Leitfaden erklärt kompakt die Anforderungen und Fristen der neuen EU-KI-Verordnung für Entwickler und Anwender. EU-KI-Verordnung kompakt: Jetzt kostenlos informieren
Der Konflikt eskalierte, weil Anthropic sich weigerte, ethische Grundsätze aufzugeben. Das Pentagon forderte angeblich, die Verbote gegen Massenüberwachung im Inland und vollautonome Waffensysteme zu streichen. Nach der Weigerung des Unternehmens folgte die Retourkutsche aus Washington. Der nun gewährte Aufschub ist nur vorläufig; das Justizministerium will Berufung einlegen. Der Fall wird zum Präzedenzfall: Wie weit dürfen private KI-Entwickler bei Verteidigungsaufträgen eigene ethische Leitplanken setzen?
Frust bei Nutzern: Drosselung und Server-Probleme
Parallel zum juristischen Erfolg schwindet die Zufriedenheit der Kunden. In den letzten Tagen bestätigte Anthropic, die Nutzungslimits für Premium-Abonnenten in Stoßzeaten zu „adjustieren“. Konkret werden Fünf-Stunden-Sitzungen für Free-, Pro- und Max-Nutzer zwischen 14 und 20 Uhr MEZT strenger gemanagt.
Die Folge: Eine Welle der Beschwerden, besonders aus der Entwickler-Community. Nutzer des KI-Codierungstools Claude Code berichten, dass ihr Kontingent binnen Minuten statt Stunden aufgebraucht ist. Das Unternehmen räumt ein, dass etwa sieben Prozent der Nutzer nun an Limits stoßen, die sie zuvor nicht erreichten. Grund ist der enorme Ressourcenhunger des seit Mitte März standardmäßigen 1-Million-Token-Kontextfensters im Top-Modell Opus 4.6.
Dazu kam ein schwerwiegender Netzwerkausfall am 26. und 27. März, der zu hohen Fehlerraten führte. Cloud-Infrastrukturprobleme zwangen zur Migration großer Workloads. Der Vorfall unterstreicht die wachsenden Skalierungsprobleme, mit denen Anthropic bei explodierender Nachfrage kämpft.
Geheimnis-Leak: Nächstes KI-Modell „Mythos“ enttarnt
Mitten in die Krise platzte ein folgenschwerer Datenleck. Durch einen Konfigurationsfehler wurden am 29. März rund 3.000 interne Dokumente zum nächsten KI-Modell öffentlich zugänglich. Das Projekt, intern „Claude Mythos“ oder „Capybara“ genannt, soll einen Quantensprung in autonomer Entscheidungsfindung und Cybersicherheit bringen.
Die geleakten Papiere deuten auf ein System hin, das schwere Sicherheitslücken in Echtzeit mit minimaler menschlicher Aufsicht identifizieren kann. Anthropic bestätigte den Leak und gab zu, dass das Modell bereits bei ausgewählten Cybersicherheits-Partnern getestet wird. Ein öffentliches Releasedatum nannte das Unternehmen nicht – es bleibt bei seiner vorsichtigen Rollout-Strategie.
Der Schutz von Geschäftsgeheimnissen und sensiblen KI-Entwicklungsdaten wird für Technologieunternehmen immer komplexer. Erfahren Sie in diesem kostenlosen Ratgeber, wie Sie Ihre Betriebsgeheimnisse durch rechtssichere Vertraulichkeitsvereinbarungen wirksam schützen. Kostenlose Mustervorlagen für NDAs herunterladen
Die geleakten Papiere deuten auf ein System hin, das schwere Sicherheitslücken in Echtzeit mit minimaler menschlicher Aufsicht identifizieren kann. Anthropic bestätigte den Leak und gab zu, dass das Modell bereits bei ausgewählten Cybersicherheits-Partnern getestet wird. Ein öffentliches Releasedatum nannte das Unternehmen nicht – es bleibt bei seiner vorsichtigen Rollout-Strategie.
Wettbewerbsdruck und die Zukunft der Agenten-KI
Trotz der Turbulenzen ist Anthropic tief in der Wirtschaft verankert. Beratungsriese Accenture setzt Claude-Modelle als primäre „Denkmaschinen“ für globale Konzerne ein. Firmen, die Claude Code nutzen, modernisieren Alt-Software angeblich 40 Prozent schneller.
Doch der Wettbewerb schläft nicht. Marktdaten zeigen, dass der massive Aufmerksamkeitsschub nach dem Pentagon-Streit abflacht. ChatGPT hat Claude bei den täglichen App-Downloads wohl überholt, auch wenn die aktiven Claude-Nutzerzahlen steigen. Die langfristige Herausforderung bleiben die exorbitanten Rechenkosten.
Als Antwort auf die systemischen Herausforderungen gründete Anthropic am 11. März das „Anthropic Institute“. Die Forschungseinheit unter Mitgründer Jack Clark soll die wirtschaftlichen und gesellschaftlichen Folgen der KI erforschen – inklusive Jobverlagerung und der Vorbereitung auf sich selbst verbessernde KI-Systeme.
Ausblick: Ein Unternehmen am Scheideweg
Anthropic steht an einem Wendepunkt. Der juristische Sieg bringt Stabilität, doch die ethischen Spannungen mit der Regierung sind ungelöst. Ein neues Büro in Washington D.C. soll den Dialog mit Politikern erleichtern.
Technologisch liegt der Fokus auf dem Übergang vom „Chat“ zum autonomen Agenten. Der Erfolg von „Mythos“ wird davon abhängen, ob Anthropic die aktuellen Stabilitäts- und Drosselungsprobleme in den Griff bekommt. Das Ökosystem wächst rasant, doch die Infrastruktur muss mithalten. Die nächsten zwei Jahre werden zeigen, ob der embattlierte KI-Architekt seine Versprechen einlösen kann.
So schätzen die Börsenprofis Aktien ein!
Für. Immer. Kostenlos.

