Anthropic: KI-Pionier nach Streit mit Pentagon auf US-Schwarzer Liste
28.02.2026 - 17:39:52 | boerse-global.deDer KI-Sicherheitsspezialist Anthropic ist vom US-Verteidigungsministerium zur Gefahr für die nationale Sicherheit erklärt worden. Die beispiellose Eskalation folgt auf einen Streit um ethische Grenzen für den Militäreinsatz von Künstlicher Intelligenz.
Die Entscheidung des Pentagons, Anthropic als „Risiko für die Lieferkette“ einzustufen, bedeutet ein faktisches Geschäftsverbot mit Militärunternehmen. Verteidigungsminister Pete Hegseth verkündete den Schritt am Freitag. Er folgt einer Direktive von Präsident Trump, die alle Bundesbehörden anweist, die Technologie des Unternehmens nicht mehr zu nutzen. Behörden haben nun sechs Monate Zeit, die Dienste von Anthropic abzulösen.
Der aktuelle Konflikt um Anthropic unterstreicht die massiven regulatorischen Umwälzungen im Bereich der Künstlichen Intelligenz, die auch Unternehmen in Europa betreffen. Dieser kostenlose Leitfaden erklärt kompakt die Anforderungen der neuen EU-KI-Verordnung und welche Fristen Sie jetzt unbedingt beachten müssen. EU-KI-Verordnung kompakt: Pflichten für Ihr Unternehmen verstehen
Der Konflikt entzündete sich an der Weigerung des KI-Pioniers, zentrale ethische Sicherheitsvorkehrungen in seinem leistungsstarken Modell Claude zu entfernen. Anthropic besteht darauf, den Einsatz seiner KI für Massenüberwachung der eigenen Bevölkerung und in vollautonomen Waffensystemen zu verbieten.
Zwei unüberbrückbare rote Linien
Im Kern des Streits stehen zwei Grundsätze, die Anthropic seit Beginn der Zusammenarbeit mit der US-Regierung vertritt. Das für seinen sicherheitsorientierten Ansatz bekannte Unternehmen hat in seinen Nutzungsbedingungen stets festgeschrieben, dass seine Modelle nicht für diese beiden Zwecke eingesetzt werden dürfen.
Das Pentagon forderte in wochenlangen Verhandlungen die Streichung dieser Klauseln. Die Behörde argumentierte, die Einschränkungen seien überflüssig, da Massenüberwachung bereits illegal und der Einsatz autonomer Waffen durch Militärrichtlinien beschränkt sei. Dennoch bestand sie auf uneingeschränktem Zugriff – frei von Vorgaben eines Privatunternehmens.
Anthropic konterte, die Technologie sei für solche hochriskanten Anwendungen noch nicht zuverlässig oder sicher genug. Man könne die Schutzmechanismen nicht guten Gewissens entfernen.
Ein teurer Prinzipienstreit
Die Verhandlungen scheiterten am Freitagabend. Noch vor der finalen Entscheidung hatte das Pentagon damit gedroht, nicht nur einen laufenden Vertrag über 200 Millionen Euro zu kündigen. Es zog auch das Defense Production Act in Betracht – ein Gesetz aus der Zeit des Kalten Krieges, um die Kooperation zu erzwingen. Experten nannten diesen Schritt gegen ein US-Unternehmen in Verhandlungsposition beispiellos.
Die nun verhängte Einstufung als Sicherheitsrisiko ist eine schwerwiegende Maßnahme. Sie wurde historisch vor allem gegen ausländische Gegner verhängt. Sie könnte das Geschäft von Anthropic mit Großkunden nachhaltig schädigen, da jeder Militärzulieferer die Verbindungen kappen müsste.
Verteidigungsminister Hegseth warf dem Unternehmen vor, das Militär „erpressen“ und ein Vetorecht über operative Entscheidungen an sich reißen zu wollen. Diese Haltung sei „grundsätzlich unvereinbar mit amerikanischen Prinzipien“.
Überraschende Wendung: Konkurrent OpenAI steigt ein
Die Tech- und Verteidigungsbranche beobachtet den öffentlichen Schlagabtausch mit wachsender Sorge. Ehemalige Regierungsmitarbeiter warnen vor einem Abschreckungseffekt auf die Bereitschaft der KI-Branche, in Sicherheitsprojekten zusammenzuarbeiten. Hunderte Mitarbeiter von Konkurrenten wie OpenAI und Google unterzeichneten aus Solidarität einen offenen Brief.
In einer überraschenden Entwicklung kündigte Rivale OpenAI nur Stunden nach der Schwarzen Liste von Anthropic eine neue Partnerschaft mit dem Pentagon an. Das Unternehmen wird KI für klassifizierte Militärnetzwerke liefern. Die Führung von OpenAI betonte, dass die neue Vereinbarung genau jene Sicherheitsprinzipien festschreibe, die im Streit mit Anthropic im Mittelpunkt standen – inklusive Verbot von Massenüberwachung und der Forderung nach menschlicher Verantwortung bei Gewalteinsatz.
Während globale Tech-Riesen über ethische Leitplanken streiten, müssen Unternehmen hierzulande bereits konkrete Compliance-Regeln für KI-Systeme umsetzen. Erfahren Sie in unserem Experten-Report, wie Sie Ihr KI-System richtig klassifizieren und die Dokumentationspflichten der neuen Verordnung rechtssicher erfüllen. Kostenlosen KI-Umsetzungsleitfaden jetzt herunterladen
Diese Entwicklung legt nahe, dass das Pentagon sehr wohl bereit ist, solche Leitplanken zu akzeptieren. Sie wirft ein neues Licht auf den öffentlichen Disput mit Anthropic.
Gerichtliche Auseinandersetzung zeichnet sich ab
Anthropic kündigte an, die Einstufung als Sicherheitsrisiko vor Gericht anzufechten. CEO Dario Amodei erklärte, das Unternehmen bleibe patriotisch und unterstütze die nationale Sicherheit, werde aber bei seinen Kernprinzipien nicht nachgeben.
Der unmittelbare Fokus liegt nun auf dem komplexen Übergangsprozess für Bundesbehörden und Militärunternehmen, die tief integrierte Systeme von Anthropic ersetzen müssen.
Diese Konfrontation markiert einen Wendepunkt in der Debatte um ethische Grenzen für Militär-KI. Das Ergebnis des Rechtsstreits und die Reaktion der Branche werden den rechtlichen und ethischen Rahmen für den Einsatz von Künstlicher Intelligenz in der Kriegsführung der kommenden Jahre prägen. Sie werfen eine kritische Frage auf: Wer kontrolliert die mächtigste Technologie unserer Zeit – ihre Schöpfer oder ihre Nutzer?
So schätzen die Börsenprofis Aktien ein!
Für. Immer. Kostenlos.

