Anthropic, Doppelschlag

Anthropic: Doppelschlag aus Code-Leak und kritischer Lücke erschüttert KI-Sicherheit

03.04.2026 - 01:39:38 | boerse-global.de

Ein Konfigurationsfehler bei Anthropic legte den kompletten Quellcode von Claude Code offen und enthüllte eine kritische Schwachstelle, die Angreifern Systemzugriff ermöglichen könnte.

Anthropic: Doppelschlag aus Code-Leak und kritischer Lücke erschüttert KI-Sicherheit - Foto: über boerse-global.de

Ein katastrophaler Konfigurationsfehler bei Anthropic hat nicht nur den Quellcode des KI-Entwickler-Tools Claude Code öffentlich preisgegeben. Sicherheitsforscher entdeckten darin auch eine kritische Schwachstelle, die Angreifern die Kontrolle über Entwickler-Systeme give könnte. Der Vorfall stellt das Sicherheitsversprechen des KI-Vorreiters fundamental in Frage.

Anzeige

Der aktuelle Vorfall bei Anthropic verdeutlicht, wie schnell neue Technologien wie KI unvorhergesehene Sicherheitsrisiken für Unternehmen schaffen können. Das kostenlose E-Book zur EU-KI-Verordnung hilft Ihnen, rechtliche Anforderungen und IT-Sicherheitsstandards frühzeitig zu verstehen. EU AI Act Umsetzungsleitfaden jetzt kostenlos herunterladen

Ein Build-Fehler mit Folgen: Der komplette Blueprint geht online

Am Morgen des 31. März 2026 schickte Anthropic die Version 2.1.88 von Claude Code an das öffentliche npm-Registry. Ein fataler Fehler in der Build-Konfiguration sorgte dafür, dass eine 59,8 Megabyte große JavaScript-Source-Map mit ausgeliefert wurde. Diese Debugging-Datei agierte wie ein Generalschlüssel: Sie erlaubte es, den originalen, menschenlesbaren TypeScript-Code nahezu vollständig zurückzuentwickeln.

Sicherheitsforscher Chaofan Shou entdeckte das Leck binnen Stunden und machte es publik. Was folgte, war ein weltweites Wettrennen um die Archivierung der nun entschlüsselten Dateien. Insgesamt gelangten etwa 512.000 Zeilen proprietären Codes aus über 1.900 Dateien an die Öffentlichkeit. Der Leak legte den kompletten operativen Bauplan des KI-Agenten offen – inklusive der Logik für Langzeitaufgaben, komplexe Entwicklungs-Workflows und den Zugriff auf lokale Dateisysteme.

Die Industrie-Analyse deutet auf eine bekannte Regression im Bun JavaScript-Runtime hin, den Anthropic Ende 2025 übernommen hatte. Ein Bug sorgte dafür, dass Source-Maps trotz gegenteiliger Konfiguration in Produktions-Builds landeten. Ein technisches Versagen, das die wachsende Komplexität der Sicherung von KI-getriebenen Lieferketten bloßlegt.

Die eigentliche Gefahr: Eine Lücke in der Kommando-Logik

Während der Quellcode-Leak Schlagzeilen machte, identifizierte das Red-Teaming-Unternehmen Adversa AI eine noch unmittelbarere Bedrohung: eine kritische Schwachstelle in der Architektur von Claude Code selbst.

Das Leck sitzt in der Befehls-Validierungslogik des Agenten. Claude Code automatisiert Entwickleraufgaben, indem er Shell-Befehle ausführt. Die entdeckte Lücke könnte es Angreifern jedoch ermöglichen, die Sicherheits-Sandbox zu umgehen. Das Tool unterscheidet zwischen automatisch erlaubten und restriktiven Befehlen. Während git oder npm meist durchlaufen, sind Tools wie curl zum Datentransfer blockiert.

Die Schwachstelle suggeriert: Ein Angreifer könnte ein manipuliertes Code-Repository erstellen, das Claude Code dazu verleitet, beliebigen Code mit den Rechten des lokalen Nutzers auszuführen. Ein Befund, der frühere Warnungen von Check Point aus Februar 2026 bestätigt. Trotz nachfolgender Patches von Anthropic zeigt die neue Entdeckung: Die fundamentale Herausforderung, autonome Agenten zu sichern, bleibt ungelöst.

Anzeige

Während technisches Versagen oft die Schlagzeilen dominiert, geraten die gesetzlichen Dokumentationspflichten im Datenschutz häufig in den Hintergrund – was bei Fehlern teure Konsequenzen haben kann. Mit dieser kostenlosen Excel-Vorlage erstellen Sie Ihr DSGVO-Verarbeitungsverzeichnis rechtssicher und vermeiden Bußgelder von bis zu 2 % des Jahresumsatzes. Kostenlose Muster-Vorlage für das Verarbeitungsverzeichnis sichern

Strategie-Enthüllungen und der Wettlauf um den Code

Die Analyse des geleakten Codes förderte über die Sicherheitsprobleme hinaus Überraschendes zutage. Entwickler fanden Hinweise auf einen bislang unveröffentlichten, „Always-On“-Autonom-Agenten, der im Hintergrund arbeiten kann, während der Nutzer inaktiv ist. Der Code enthielt zudem 44 versteckte Feature-Flags und ein kurioses internes Projekt namens „Buddy“ – einen Tamagotchi-ähnlichen KI-Begleiter für das Terminal.

Die wettbewerblichen Konsequenzen sind massiv. Innerhalb von 48 Stunden tauchten Spiegelungen des Claude-Code-Quelltextes auf GitHub auf, einige sammelten zehntausende Sterne. Anthropic verschickte aggressive DMCA-Takedown-Notices, zunächst an über 8.000 Repositories. Doch der Code wurde bereits in andere Sprachen wie Python und Rust portiert. Eine vollständige Eindämmung des geistigen Eigentums ist kaum noch möglich.

Der Vorfall trifft Anthropic ins Mark seiner Kommerzialisierungsstrategie. Claude Code hatte im Februar 2026 eine jährliche Umsatzlaufrate von über 2,5 Milliarden Euro erreicht. Die Offenlegung der proprietären Techniken für Hochlatenz-KI-Aufgaben könnte Konkurrenten nun erlauben, beim agentenbasierten Arbeiten schneller aufzuholen. Besonders brisant: Die Enthüllung, dass Claude Code angeblich 100 % seiner eigenen Codebasis schreibt, entfacht eine Devatte über Qualität und Sicherheit von KI-generierter Software im großen Stil.

Was Nutzer jetzt tun müssen – und die Zukunft der KI-Sicherheit

Als Reaktion auf die Krise veröffentlichte Anthropic am 1. April 2026 die Version 2.1.89, die den Paketierungsfehler korrigiert. Das Unternehmen betont, es handle sich um einen menschlichen Fehler während eines Routine-Updates, nicht um einen gezielten Cyberangriff. Sicherheitsexperten kontern jedoch: Das menschliche Element bleibe die größte Schwachstelle selbst in den ausgefeiltesten KI-Festungen.

Für Entwickler und Unternehmen, die Claude Code nutzen, empfehlen Sicherheitsprofis umgehende Maßnahmen:
- Sofortiges Update auf Version 2.1.89 oder höher.
- Überprüfung und Einschränkung der Berechtigungen für KI-Agenten in lokalen Umgebungen, insbesondere bei Netzwerkzugriff und Shell-Execution.
- Vermeidung von „entsperrten“ Community-Versionen aus öffentlichen Repositories – viele enthalten Malware wie Vidar und GhostSocks.
- Implementierung von Zero-Trust-Architekturen, die mission-kritische Anwendungen von Workstations mit aktiven KI-Agenten segmentieren.

Die Ereignisse der Woche sind eine ernüchternde Mahnung an die Risiken des rapiden Einsatzes autonomer KI-Tools. Je mehr Macht Agenten im Namen der Nutzer erhalten, desto dünner wird die Linie zwischen Produktivitäts-Booster und kritischer Sicherheitslücke. Der Fokus der Branche verlagert sich nun auf „Agentic Governance“ – einen neuen Rahmen, um die Ausführungspfade von KI-Modellen so zu steuern, dass sie nicht zur Waffe gegen die Entwickler werden, denen sie helfen sollen.

Der Doppelschlag aus Quellcode-Leak und kritischer Schwachstelle markiert wahrscheinlich einen Wendepunkt. Anthropic, das kürzlich 30 Milliarden Euro bei einer Bewertung von 380 Milliarden Euro eingesammelt hat, muss nun seinen Ruf als „Fort Knox“ der KI-Sicherheit neu aufbauen. Die Zukunft der KI-Tools hängt entscheidend von der Lösung eines fundamentalen Paradoxons ab: Wie gibt man einem Agenten genug Macht, um nützlich zu sein – aber nicht genug, um gefährlich zu werden?

So schätzen die Börsenprofis Aktien ein!

<b>So schätzen die Börsenprofis  Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
Für. Immer. Kostenlos.
boerse | 69060132 |