Anthropics, KI-Tool

Anthropics KI-Tool Claude Code: Kritische Sicherheitslücken geschlossen

26.02.2026 - 06:39:57 | boerse-global.de

Sicherheitsforscher fanden Schwachstellen in Claude Code, die Angreifern die Kontrolle über Entwicklerrechner ermöglicht hätten. Anthropic hat die Lücken bereits gepatcht.

Schwere Sicherheitslücken in Anthropics KI-Entwicklerassistent Claude Code hätten Angreifern die vollständige Kontrolle über Entwicklerrechner ermöglicht. Die jetzt öffentlich gemachten Schwachstellen offenbaren ein neues Angriffsszenario in der boomenden KI-gestützten Softwareentwicklung.

Hintergrund: Angriff über Konfigurationsdateien

Die Sicherheitsforscher von Check Point Research entdeckten die kritischen Lücken nicht im KI-Modell selbst, sondern in der Verarbeitung von Projektkonfigurationsdateien. Ein Angreifer hätte ein manipuliertes Code-Repository erstellen können – und bereits das Klonen und Öffnen dieses Repositories durch einen Entwickler hätte versteckte Befehle automatisch ausgeführt.

"Das ist ein Paradigmenwechsel in der Bedrohungslandschaft", erklärt ein Check-Point-Sicherheitsexperte. "Die Konfigurationsdateien von KI-Tools sind nicht mehr passive Einstellungen, sondern Teil der Ausführungsschicht."

Anzeige

Der Fall Claude Code zeigt eindrucksvoll, wie rasant sich die Bedrohungslage durch neue Technologien verändert. Was Geschäftsführer jetzt über Cyber Security und die aktuellen KI-Gesetze wissen müssen, erfahren Sie in diesem Experten-Report. Gratis Cyber-Security-Leitfaden für Unternehmen herunterladen

Zwei kritische Schwachstellen im Detail

Die Sicherheitslücken wurden unter den Bezeichnungen CVE-2025-59536 und CVE-2026-21852 erfasst. Die erste ermöglichte die Ausführung beliebigen Codes beim Start des Tools in einem nicht vertrauenswürdigen Verzeichnis. Die zweite Schwachstelle erlaubte die Ausspähung sensibler Daten – darunter der persönliche Anthropic-API-Schlüssel des Entwicklers – noch bevor eine Sicherheitsabfrage angezeigt wurde.

Konkret konnten Angreifer bösartige Shell-Befehle in Konfigurationsdateien wie .claude/settings.json verstecken. Startete ein Entwickler Claude Code in einem entsprechend präparierten Projektverzeichnis, führte das Tool diese Befehle ohne weitere Bestätigung aus. Die Folgen: Vollständige Übernahme des Rechners oder Diebstahl wertvoller API-Schlüssel.

Anthropic reagiert schnell – Nutzer bereits geschützt

In einer koordinierten Offenlegung arbeiteten die Sicherheitsforscher eng mit Anthropics Sicherheitsteam zusammen. Das KI-Unternehmen hat alle gemeldeten Schwachstellen bereits in den letzten Monaten gepatcht – Nutzer waren somit geschützt, bevor die Details öffentlich wurden.

Die Gegenmaßnahmen umfassen verbesserte Warnhinweise, die erscheinen, wenn ein Nutzer ein Projekt mit nicht vertrauenswürdigen Konfigurationen öffnet. "Die Zusammenarbeit mit Check Point verlief vorbildlich", betont ein Anthropic-Sprecher. "Sicherheit hat für uns höchste Priorität."

Paradox: KI-Sicherheitsanbieter mit eigenen Sicherheitsproblemen

Die Enthüllung kommt zu einem bemerkenswerten Zeitpunkt: Anthropic wirbt derzeit intensiv für seine KI-gestützten Sicherheitslösungen. Erst Anfang Februar 2026 verkündete das Unternehmen, sein Claude-Opus-4.6-Modell habe über 500 hochkritische Schwachstellen in Open-Source-Software entdeckt – einige davon seit Jahrzehnten unerkannt.

Diese Ankündigung löste an den Börsen erhebliche Turbulenzen aus: Die Aktienkurse etablierter Cybersicherheitsunternehmen brachen zeitweise ein, als Investoren das disruptive Potenzial der KI-gestützten Sicherheitsanalyse erkannten.

Gleichzeitig testet Anthropic in einer begrenzten Preview bereits "Claude Code Security" – ein Tool, das Codebasen automatisch auf Sicherheitslücken scannt und Patches vorschlägt. Das Unternehmen positioniert sich damit auf beiden Seiten der Sicherheitsgleichung: als Anbieter defensiver KI-Tools und als Plattformbetreiber, der eigene Produkte absichern muss.

Anzeige

Während KI-Systeme immer tiefer in die Unternehmensprozesse integriert werden, wächst der Druck durch gesetzliche Vorgaben wie die neue EU-KI-Verordnung. Dieser kostenlose Umsetzungsleitfaden hilft Ihnen dabei, Anforderungen und Fristen ohne juristische Fachkenntnisse zu verstehen. Kostenloses E-Book zur EU-KI-Verordnung sichern

Neue Bedrohungsmodelle für Entwickler

Die Vorfälle verändern grundlegend das Bedrohungsmodell für Entwickler, die KI-Tools nutzen. Das Risiko beschränkt sich nicht mehr auf das bewusste Ausführen nicht vertrauenswürdigen Codes – bereits das Öffnen eines manipulierten Projekts kann gefährlich werden.

"Das schafft ein erhebliches Supply-Chain-Risiko", warnt ein Sicherheitsexperte. "Ein einziges bösartiges Repository könnte jeden Entwickler kompromittieren, der damit interagiert."

Für die Industrie bedeutet dies eine doppelte Herausforderung: Einerseits müssen KI-Tools mächtig genug bleiben, um Entwickler produktiv zu unterstützen. Andererseits benötigen sie robuste Sicherheitsmechanismen, um nicht selbst zum Einfallstor für Angreifer zu werden. Anthropic kündigte bereits an, in den kommenden Monaten zusätzliche Sicherheitsfunktionen mit granulareren Risikokontrollen zu veröffentlichen.

Die Branche steht vor der grundsätzlichen Frage: Wie schafft man das Gleichgewicht zwischen nützlicher Automatisierung und notwendiger Sicherheit, damit die Werkzeuge von morgen nicht die Angriffsvektoren von heute werden?

Hol dir jetzt den Wissensvorsprung der Aktien-Profis.

 Hol dir jetzt den Wissensvorsprung der Aktien-Profis.

Seit 2005 liefert der Börsenbrief trading-notes verlässliche Aktien-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr.
Jetzt abonnieren.

boerse | 68613234 |