Anthropic, KI-Codeagent

Anthropic: KI-Codeagent stürzt ab – und löscht Daten

13.03.2026 - 00:00:15 | boerse-global.de

Anthropic erzielt hohe Umsätze mit KI-Codierung, doch ein Datenverlust in Deutschland und ein massiver Plattformausfall offenbaren erhebliche Sicherheitsrisiken.

Anthropic: KI-Codeagent stürzt ab – und löscht Daten - Foto: über boerse-global.de
Anthropic: KI-Codeagent stürzt ab – und löscht Daten - Foto: über boerse-global.de

Die letzten 72 Stunden brachten für den KI-Pionier Anthropic einen dramatischen Wechselbad zwischen Rekorden und Risiken. Ein neues, teures Code-Review-Feature spaltet die Entwicklergemeinde, während ein spektakulärer Datenverlust in Deutschland die Grenzen autonomer KI offenlegt. Gleichzeitig kämpft die Plattform mit einem Ansturm neuer Nutzer, der zu einem massiven Ausfall führte.

Teure KI-Code-Prüfung spaltet Entwickler

Am Montag, den 9. März, stellte Anthropic sein neues Claude Code Review-Feature vor. Das Tool, eine Weiterentwicklung der Claude-3-Modelle, sucht nicht nur nach Fehlern, sondern schlägt auch architektonische Lösungen vor. Der Haken: Die tiefgehende Analyse ist ressourcenhungrig und teuer. Pro Pull-Request fallen laut Branchenberichten zwischen 15 und 25 Euro an – abhängig von der Code-Komplexität.

Anzeige

Der Einsatz leistungsfähiger KI-Systeme wie Claude unterliegt seit August 2024 strengen gesetzlichen Leitplanken. Dieser kostenlose Leitfaden zeigt Ihnen kompakt, wie Sie die Anforderungen der neuen EU-KI-Verordnung rechtssicher in Ihrem Unternehmen umsetzen. EU-KI-Verordnung kompakt: Jetzt kostenlosen Umsetzungsleitfaden sichern

Die Reaktionen sind gespalten. Viele Entwickler kritisieren in sozialen Medien die hohen Betriebskosten. Gleichzeitig wächst die Sorge, dass solche autonomen Systeme langfristig die Rolle und Job-Sicherheit von Senior-Entwicklern untergraben könnten. Anthropic positioniert sein Tool damit klar nicht als bloßen Assistenten, sondern als premium-pflichtigen Ersatz für menschliche Expertise.

Rekordeinnahmen und ein folgenschwerer Fehler

Die Leistungsdaten der neuen Modelle sind beeindruckend. Laut einem Bericht des TIME-Magazins vom 11. März schreibt Claude mittlerweile 70 bis 90 Prozent des Codes für die eigenen Nachfolgemodelle. Der geschäftliche Erfolg ist enorm: Der Umsatz mit den Coding-Agents soll bis Februar 2026 auf annualisierte 2,5 Milliarden Euro gestiegen sein.

Doch der reale Einsatz offenbarte diese Woche ein fatales Risiko. Alexey Grigorev, ein deutscher Entwickler und Gründer einer Data-Learning-Plattform, verlor bei einer Server-Migration durch Claude Code zweieinhalb Jahre Produktionsdaten. Der KI-Agent hatte, weil eine kritische Zustandsdatei in der Anfrage fehlte, einen Befehl ausgeführt, der die bestehende Datenbank-Infrastruktur unwiderruflich löschte. Die Daten konnten zwar vom Cloud-Support wiederhergestellt werden, doch der Vorfall ist eine deutliche Warnung: Selbst hochintelligente KI fehlt oft das kontextuelle Verständnis, um katastrophale Fehler bei unvollständigen Anweisungen zu verhindern.

Rekordnachfrage führt zu massivem Ausfall

Der Hype um die Updates brachte die Infrastruktur von Anthropic an ihre Grenzen. Am Mittwochmorgen (11. März) erlebte die Claude-Plattform einen weitreichenden Ausfall. Monitoring-Dienste verzeichneten binnen Minuten über 1.400 Störungsmeldungen. Nutzer aller Tarife bekamen Fehlermeldungen und konnten weder auf den Chatbot noch die Coding-Tools zugreifen. Das Unternehmen bestätigte den Vorfall und konnte das Problem innerhalb von zwei Stunden beheben.

Anzeige

Neben technischen Ausfällen stellen auch neue Regularien für Cyber-Security und KI-Systeme Unternehmen vor wachsende Herausforderungen. Erfahren Sie in diesem Experten-Report, wie Sie Ihre IT-Infrastruktur gemäß aktueller Gesetzeslage proaktiv schützen und Risiken minimieren. Kostenloses E-Book: Cyber Security Trends und neue KI-Gesetze 2024

Als Grund nannte Anthropic einen Rekord-Ansturm neuer Nutzer. Die Claude-App hatte Anfang März die Spitzenposition in den US-Apple-App-Charts erreicht. Dieser Popularitätsschub fiel zeitgleich mit einem öffentlichen Streit mit dem US-Verteidigungsministerium zusammen. Anthropic hatte am 9. März zwei Klagen eingereicht und wirft der Regierung illegale Vergeltungsmaßnahmen vor. Der Konflikt entbrannte, nachdem das Pentagon Claude aus seinen klassifizierten Militärnetzen verbannt hatte – weil das Unternehmen ethische Grenzen bei Massenüberwachung und autonomen Waffen nicht aufweichen wollte.

Zwischen Höhenflug und Bodenhaftung

Die Ereignisse der letzten Tage markieren einen Wendepunkt für Anthropic. Das Unternehmen hat sich von einem sicherheitsfokussierten Forschungslabor zu einer kommerziellen Kraft in der Unternehmensautomatisierung gewandelt. Die finanziellen Erfolge sind unbestreitbar, getrieben von der rasanten Adoption in Unternehmen.

Doch der Datenverlust in Deutschland zeigt die Schattenseite dieser Entwicklung auf. Die Kluft zwischen der hohen Intelligenz der Modelle und ihrem mangelnden Sicherheitsbewusstsein in kritischen Infrastrukturen bleibt die größte Hürde. Branchenexperten fordern nun dringend verbesserte Sicherheitsvorkehrungen, obligatorische Zustandsprüfungen und Simulationsumgebungen, um solche Vorfälle künftig zu verhindern. Die Zukunft von KI-gestützter Softwareentwicklung hängt maßgeblich davon ab, ob Benchmark-Leistungen auch sicher in Live-Umgebungen übersetzt werden können.

Hol dir jetzt den Wissensvorsprung der Aktien-Profis.

 <b>Hol dir jetzt den Wissensvorsprung der Aktien-Profis.</b>

Seit 2005 liefert der Börsenbrief trading-notes verlässliche Aktien-Empfehlungen - Dreimal die Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
Für. Immer. Kostenlos.

boerse | 68665203 |