Anthropic verklagt US-Regierung wegen KI-Sicherheitsstreit
11.03.2026 - 00:00:26 | boerse-global.deKI-Pionier Anthropic zieht gegen die US-Regierung vor Gericht. Das Unternehmen wehrt sich gegen eine Einstufung als Sicherheitsrisiko, die es als Vergeltung für seine Weigerung sieht, KI-Sicherheitsvorkehrungen für militärische Zwecke aufzuheben. Die Klagen markieren einen dramatischen Bruch zwischen der Tech-Branche und dem nationalen Sicherheitsapparat.
Verfassungsklage gegen "Blacklisting"
Im Kern der Klagen steht ein Vorwurf der Meinungsunterdrückung. Anthropic argumentiert, die Regierung bestrafe das Unternehmen verfassungswidrig für seine ethische Haltung. Die Klagepunkte: Die Einstufung als "Lieferkettenrisiko" und ein Präsidialerlass, der alle Bundesbehörden anweist, Anthropics Technologie nicht mehr zu nutzen. Diese Maßnahmen seien eine direkte Vergeltung für die Weigerung, KI-Modell Claude für Massenüberwachung oder autonome Waffensysteme freizugeben.
Während Anthropic in den USA um ethische Standards kämpft, müssen Unternehmen in Europa bereits konkrete gesetzliche Vorgaben erfüllen. Dieser kostenlose Leitfaden erklärt verständlich, welche Kennzeichnungspflichten und Risikoklassen die neue EU-KI-Verordnung für Ihr Unternehmen vorsieht. EU-KI-Verordnung kompakt: Jetzt Gratis-Leitfaden sichern
Die Einstufung als Sicherheitsrisiko ist ein schwerer Schlag. Sie wird normalerweise gegen ausländische Gegner verhängt und traf noch nie ein großes US-Tech-Unternehmen. Anthropic spricht von "irreparablem Schaden" – Hunderte Millionen Dollar an Geschäften seien gefährdet, Partner zögen sich zurück. Das Vorgehen erfolgte laut Klage ohne ordentliches Verfahren, ohne Untersuchung oder Anhörung.
Streit um "alle rechtmäßigen Nutzungen"
Der Konflikt eskalierte in Verhandlungen mit dem Pentagon. Das Verteidigungsministerium forderte, die nutzungspolitischen Beschränkungen von Claude aufzuheben und "alle rechtmäßigen Nutzungen" zu erlauben. Anthropic blieb bei seiner Weigerung in zwei Punkten: Die Modelle seien weder für den sicheren Einsatz in autonomer Kriegsführung noch für Massenüberwachung trainiert oder validiert.
Die Reaktion der Trump-Administration folgte prompt. Der Präsident ordnete den Stopp der Nutzung in allen Bundesbehörden an. Verteidigungsminister Pete Hegseth stufte das Unternehmen aus San Francisco dann offiziell als Risiko ein und schnitt es von Verteidigungsaufträgen ab. Berichten zufolge wurde die KI dennoch weiter in Militäroperationen genutzt – selbst nach dem Verbot.
Der Fall Anthropic zeigt, wie schnell technologische Entwicklungen in den Fokus staatlicher Regulierung geraten können. Was Geschäftsführer jetzt über die aktuellen KI-Gesetze und die damit verbundenen Anforderungen an die Cyber-Security wissen müssen, erfahren Sie in diesem Experten-Report. Kostenloses E-Book zu Cyber Security Trends 2024 herunterladen
Tech-Branche zeigt Solidarität
Die harte Linie der Regierung stößt in der Tech-Industrie auf breiten Widerstand. Dutzende Ingenieure und Forscher von Konkurrenten wie Google und OpenAI unterstützen Anthropic mit einer Stellungnahme vor Gericht – in persönlicher Eigenschaft. Sie fürchten, das Vorgehen könnte Debatten über KI-Sicherheit ersticken und unberechenbare Herausforderungen für die gesamte Branche schaffen.
Rechtsexperten sehen in dem Fall ein beispielloses Vorgehen. Die Anwendung eines Statuts gegen ausländische Gegner auf ein inländisches Unternehmen sei ein erheblicher Machtmissbrauch. Die Klage argumentiert, es handele sich nicht um eine einfache Beschaffungsentscheidung, sondern um eine Kampagne zur Zerstörung des Unternehmenswerts aus ideologischen Gründen. Das Pentagon äußert sich nicht zu dem laufenden Verfahren.
KI-Ethik vs. nationale Sicherheit
Der Ausgang des Rechtsstreits wird die Zukunft der KI in der nationalen Sicherheit prägen. Anthropic betont, die Klage sei nötig, um Geschäft und Partner zu schützen, bekräftigt aber gleichzeitig sein Engagement für die nationale Sicherheit. Die Klagen fordern die Gerichte auf, die Anordnung des Pentagons zu stoppen und die Maßnahmen der Regierung für rechtswidrig zu erklären.
Der Fall wirft grundlegende Fragen auf: Welche ethischen Verantwortungen haben KI-Entwickler? Wo liegen die Grenzen staatlicher Macht, private Unternehmen auf Regierungsziele einzuschwören? Das Urteil wird beeinflussen, wie Verträge verhandelt, Sicherheitsprotokolle umgesetzt und wie stark KI-Firmen an ihren Prinzipien festhalten können, wenn sie mit dem Militär zusammenarbeiten. Tech- und Verteidigungsbranche warten gespannt, wie die Gerichte nationale Sicherheitsinteressen, Verfassungsrechte und die Ethik einer weltverändernden Technologie abwägen werden.
Hol dir jetzt den Wissensvorsprung der Aktien-Profis.
Für. Immer. Kostenlos.

