Anthropic: KI-Offensive gegen US-Regierung
10.03.2026 - 06:09:48 | boerse-global.deKI-Pionier Anthropic startet mit neuem Code-Tool durch – und verklagt gleichzeitig das Pentagon. Das Unternehmen wehrt sich juristisch gegen eine Einstufung als Sicherheitsrisiko, während es sein Geschäft mit Unternehmen massiv ausbaut. Ein Machtkampf um die Ethik militärischer KI-Nutzung erreicht damit einen neuen Höhepunkt.
Doppelstrategie: Produktlaunch und Gerichtsklage
Am Montag, dem 9. März, steuerte der KI-Entwickler Anthropic einen bemerkenswerten Doppelkurs. Parallel zur Einführung eines neuen Multi-Agenten-Tools für Code-Reviews reichte das Unternehmen zwei Klagen gegen die US-Regierung ein. Sie richten sich gegen das Verteidigungsministerium und die Trump-Administration. Grund ist die Einstufung Anthropics als nationales Sicherheitsrisiko in Lieferketten.
Da neue Technologien wie KI-Agenten die Rechtslage rasant verändern, müssen Unternehmen ihre Compliance-Strategien jetzt proaktiv anpassen. Dieser kostenlose Leitfaden hilft Ihnen, die Anforderungen der neuen EU-KI-Verordnung zu verstehen und rechtssicher umzusetzen. Gratis E-Book mit Umsetzungsleitfaden anfordern
Diese parallelen Entwicklungen verdeutlichen den wachsenden Konflikt zwischen rasanter kommerzieller KI-Innovation und staatlichen Sicherheitsvorgaben. Anthropic weigert sich, eine uneingeschränkte militärische Nutzung seiner Modelle zuzulassen – und riskiert dafür einen Präzedenzfall vor Gericht.
Neues KI-Tool soll Entwickler entlasten
Mit Claude Code Review erweitert Anthropic sein Angebot für Unternehmen. Das Tool automatisiert die Prüfung von Code-Änderungen (Pull Requests) und soll Engpässe in Software-Teams beseitigen. „Die rasante Adoption von KI-Coding-Assistenten führt zu einer Flut an neuem Code, die menschliche Prüfer überfordert“, erklärt Produktchefin Cat Wu.
Das System, zunächst in einer Forschungsvorschau für Team- und Enterprise-Kunden verfügbar, integriert sich direkt in GitHub. Mehrere KI-Agenten arbeiten parallel, analysieren den Code aus verschiedenen Blickwinkeln, identifizieren Logikfehler und kommentieren sie direkt. Gefundene Probleme werden nach Schweregrad in einem Farbsystem eingestuft.
Die Kosten bewegen sich im tokenbasierten Preismodell zwischen 15 und 25 US-Dollar pro Review. Das Produkt launcht in einer Phase starken kommerziellen Wachstums: Die Enterprise-Abonnements haben sich seit Jahresbeginn vervierfacht. Der Umsatz mit Claude Code liegt laut Unternehmen inzwischen bei einer jährlichen Rate von über 2,5 Milliarden Dollar.
Juristische Abwehrschlacht gegen das Pentagon
Während das Geschäft boomt, wehrt sich Anthropic juristisch gegen die US-Regierung. Die Klagen, eingereicht vor Bundesgerichten in Kalifornien und Washington D.C., zielen darauf ab, die Risikoeinstufung des Verteidigungsministeriums rückgängig zu machen.
Der Streit entzündete sich an gescheiterten Verhandlungen über die militärische Nutzung des Claude-Modells. Anthropic wollte ethische Leitplanken durchsetzen: Das Modell sollte nicht für vollautonome Waffensysteme oder Massenüberwachung von US-Bürgern eingesetzt werden dürfen. Verteidigungsminister Pete Hegseth und andere Regierungsvertreter bestanden dagegen auf der Akzeptanz „aller gesetzlich zulässigen militärischen Nutzungen“.
Der Einsatz von KI-Systemen in Unternehmen bringt nicht nur technologische Vorteile, sondern auch komplexe neue Dokumentationspflichten und Haftungsrisiken mit sich. Erfahren Sie in diesem kostenlosen Experten-Report, wie Sie Ihr Unternehmen rechtzeitig gegen neue Cyber-Bedrohungen und gesetzliche Verschärfungen wappnen. Kostenlosen Cyber-Security-Leitfaden herunterladen
Nach dem Scheitern der Gespräche verhängte das Pentagon die umstrittene Lieferketten-Risiko-Einstufung. Ein Instrument, das traditionell ausländischen Gegnern mit Spionageverdacht vorbehalten ist. Anthropics Anwälte von der Kanzlei WilmerHale argumentieren, es handele sich um unrechtmäßige Vergeltung. Die Einstufung verletze verfassungsmäßige Rechte auf freie Meinungsäußerung und ordentliches Verfahren. Die Regierung bestrafe das Unternehmen damit für seine geschützte, sicherheitsorientierte Haltung.
Eingeschränkter Geltungsbereich der Sanktionen
Die tatsächlichen Sanktionen fallen enger aus als zunächst angedroht. Anfang März hatte die Regierung noch mit einem umfassenden Verbot gedroht: Jeder Militär-Zulieferer sollte auch kommerziell nicht mehr mit Anthropic zusammenarbeiten dürfen. Präsident Donald Trump ordnete an, dass alle Bundesbehörden die Technologie nicht mehr nutzen sollen.
Die offizielle Anordnung vom 4. März ist jedoch präziser. Sie betrifft nur die direkte Nutzung von Claude in Verträgen mit dem Pentagon. Ein pauschales Verbot für alle Verteidigungsunternehmer, das Tool für andere Zwecke einzusetzen, ist es nicht. „Die überwiegende Mehrheit unserer kommerciellen Kunden bleibt unberührt“, stellt CEO Dario Amodei klar.
Große Partner bestätigen diese Auslegung. Microsoft, das Anthropics Modelle in seine Software-Suite integriert, kam nach juristischer Prüfung zu dem Schluss, Claude weiterhin Nicht-Verteidigungskunden über GitHub und die eigene KI-Plattform anbieten zu können. Trotz der abgemilderten Sanktionen will Anthropic die Klagen aufrechterhalten, um die Einstufung komplett zu kippen.
Branchenweites Präzedenz mit globaler Bedeutung
Die Konfrontation markiert einen Wendepunkt für die Tech-Branche. Sie testet, ob private Unternehmen der US-Armee erfolgreich ethische Nutzungsbedingungen diktieren können. Rechtswissenschaftler betonen: Die Anwendung der Lieferketten-Risiko-Klausel auf ein inländisches Unternehmen aufgrund eines Ethik-Streits ist höchst ungewöhnlich und juristisches Neuland.
Die gesamte KI-Branche verfolgt den Fall aufmerksam. Das Urteil könnte einen Präzedenzfall für die staatliche Beschaffung und Regulierung von Hochleistungs-KI schaffen. Dutzende Experten von Konkurrenzlabs, darunter Senior-Mitarbeiter von Google, haben sich mit Stellungnahmen auf Anthropics Seite gestellt. Sie argumentieren, das Pentagon dehne den ursprünglichen Zweck des Gesetzes – Schutz vor ausländischer Sabotage – unzulässig auf Nutzungsstreitigkeiten aus.
Gleichzeitig räumen Verteidigungsexperten ein, dass ein Abschied von Anthropics Systemen komplex wird. Claude ist tief in klassifizierte Militärnetzwerke integriert, auch im Nahen Osten. Ein schneller Ersatz durch alternative Modelle wäre logistisch herausfordernd.
Ausblick: Lange Gerichtsverfahren, robustes Geschäft
Die Bundesgerichte müssen nun über Anthropics Anträge auf einstweiligen Rechtsschutz entscheiden. Die Verfahren werden komplex und aufmerksam verfolgt werden – nicht zuletzt wegen der aufgeworfenen verfassungsrechtlichen Fragen zu unternehmerischer Meinungsfreiheit und staatlicher Vergeltung. Eine Entscheidung höherer Instanzen gilt als wahrscheinlich.
Das Pentagon hat eine sechsmonatige Auslaufphase für Anthropics Technologie in seinen Systemen angeordnet. Ob die Streitkräfte die Fähigkeiten in dieser Zeit nahtlos ersetzen können, ist ungewiss.
Trotz des Konflikts mit der Regierung bleibt Anthropics kommerzieller Kurs robust. Die Einführung des Code-Review-Tools unterstreicht den Fokus auf den lukrativen Enterprise-Automatisierungsmarkt. Die Fähigkeit des Unternehmens, strikte Sicherheitsprinzipien mit aggressiver kommerzieller Expansion zu vereinen, wird seine langfristige Position in der globalen Tech-Landschaft bestimmen.
Hol dir jetzt den Wissensvorsprung der Aktien-Profis.
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Aktien-Empfehlungen - Dreimal die Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
Für immer kostenlos

