Anthropic verliert 200-Millionen-Dollar-Vertrag mit Pentagon
07.03.2026 - 09:31:37 | boerse-global.deDie US-Regierung hat den KI-Entwickler Anthropic offiziell zum Risiko für die Lieferkette erklärt. Der Grund: Das Unternehmen weigerte sich, sein KI-Modell Claude für Massenüberwachung oder autonome Waffensysteme freizugeben. Diese beispiellose Eskalation beendet eine lukrative Partnerschaft und wirft grundlegende Fragen zur Ethik von Militär-KI auf.
Während ethische Fragen die Schlagzeilen beherrschen, gelten für Unternehmen bereits handfeste gesetzliche Vorgaben durch die neue EU-KI-Verordnung. Dieser kostenlose Leitfaden hilft Ihnen, Kennzeichnungspflichten und Risikoklassen richtig einzuordnen und Bußgelder zu vermeiden. EU-KI-Verordnung kompakt: Jetzt Gratis-Leitfaden sichern
Ein Risiko für die nationale Sicherheit
Am Donnerstag, dem 5. März 2026, setzte das US-Verteidigungsministerium die Einstufung von Anthropic als Lieferkettenrisiko in Kraft. Die formale Benachrichtigung an das Unternehmen fiel enger aus als zunächst angedroht. Sie verbietet konkret die Nutzung des Claude-Modells im direkten Zusammenhang mit Pentagon-Verträgen.
Für andere kommerzielle Operationen von Militärunternehmen bleiben Anthropics Systeme nutzbar. Großpartner wie Microsoft prüften die Anweisung und sehen keine Einschränkung für ihre Unternehmenskunden – solange die Anwendungen nichts mit Verteidigungsprojekten zu tun haben. Trotz dieser Einschränkung muss das Militär die Technologie innerhalb von sechs Monaten ersetzen. Ein Vertrag im Wert von 200 Millionen Dollar ist damit beendet.
Der Bruchpunkt: Ethische Leitplanken
Der Konflikt entzündete sich an einer grundsätzlichen Frage: Wer setzt die Regeln für den militärischen Einsatz Künstlicher Intelligenz? Pentagon-Vertreter, darunter Technologiechef Emil Michael, forderten die uneingeschränkte Nutzung von Claude für alle rechtmäßigen Zwecke. Verzögerungen durch private Vorgaben seien im Gefecht unverantwortlich.
Anthropic beharrte dagegen auf strikten ethischen Grenzen. Das Unternehmen verlangte vertragliche Garantien, dass seine KI weder autonome Waffensysteme antreibt noch Massenüberwachung amerikanischer Bürger durchführt. Solche Fähigkeiten widersprächen demokratischen Werten, so die Argumentation. Die aktuellen KI-Modelle seien zudem nicht präzise genug für tödliche Ziele ohne menschliche Aufsicht. Die Regierung wies diese Bedingungen zurück. Michael nannte es undemokratisch, dass ein nicht gewähltes Tech-Unternehmen strengere Regeln aufstelle als der Kongress.
OpenAI springt ein – und erntet Kritik
Die Trennung veränderte sofort das Kräfteverhältnis unter den führenden KI-Laboren. Innerhalb von Stunden nach der Strafaktion gegen Anthropic verkündete der Rivale OpenAI eine neue Vereinbarung. Dessen ChatGPT-Technologie soll nun in den klassifizierten Netzwerken des Militärs zum Einsatz kommen.
Die schnelle Ablösung löste jedoch öffentliche und interne Gegenreaktionen aus. OpenAI-CEO Sam Altman bedauerte später das Timing der Partnerschaft. Das überhastete Abkommen wirke opportunistisch und schlampig. Altman räumte ein, dass sein Unternehmen zunächst ähnliche Schutzklauseln gefordert, diese dann aber für den Vertrag gestrichen habe. Anthropic kritisierte intern scharf, dass OpenAI Sicherheitsvorkehrungen für Staatsaufträge opfere.
Klage angekündigt – und unerwarteter Publikumserfolg
Anthropic will die Entscheidung des Pentagons nicht hinnehmen. CEO Dario Amodei kündigte an, die Einstufung vor einem Bundesgericht anzufechten. Die Maßnahme der Regierung habe keine solide rechtliche Grundlage. Während Amodei von produktiven Gesprächen mit Verteidigungsbeamten sprach, dementierten Pentagon-Vertreter dies umgehend. Präsident Donald Trump schürte die Spannungen, indem er öffentlich prahlte, die KI-Firma aus dem Staatsdienst entlassen zu haben.
Trotz des wegbrechenden Regierungsgeschäfts scheint der öffentliche Moral-Kurs dem Unternehmen zu nutzen. Marktforschungsdaten zeigen einen massiven Anstieg des Verbraucherinteresses an der Claude-App. Sie überholte ChatGPT und Google Gemini und wurde in über zwanzig Ländern zur meistheruntergeladenen KI-App im Apple App Store. Analysten deuten dies als wachsendes öffentliches Verlangen nach klaren ethischen Grenzen für Künstliche Intelligenz.
Die rasante Entwicklung von KI-Technologien stellt nicht nur Regierungen, sondern auch die Cyber-Security von Unternehmen vor völlig neue Herausforderungen. Erfahren Sie in diesem Experten-Report, wie Sie Ihre IT-Strategie an die neuen Bedrohungen und Gesetze anpassen können. Kostenlosen Cyber Security Report 2024 herunterladen
Ein Präzedenzfall für KI-Governance
Die Konfrontation offenbart eine Schwachstelle in der aktuellen KI-Regulierung. Da internationale Vorschriften mit dem technologischen Fortschritt nicht Schritt halten, werden die entscheidenden Weichen oft in privaten Regierungsverträgen gestellt. Juristen weisen darauf hin, dass die Nutzung des Instruments „Lieferkettenrisiko“ – normalerweise für ausländische Gegner reserviert – gegen ein inländisches Tech-Unternehmen höchst ungewöhnlich ist. Es könnte eine Welle komplexer Rechtsstreitigkeiten auslösen.
Zudem zeigt der Fall das fragile Verhältnis zwischen der sicherheitsbewussten Kultur des Silicon Valley und den pragmatischen Anforderungen der Landesverteidigung. Die aggressive Reaktion des Pentagons sendet ein klares Signal: Die Regierung wird es nicht dulden, dass kommerzielle Partner die operative Flexibilität des Militärs einschränken – selbst wenn dies aus Sicherheitsbedenken geschieht.
Was kommt als Nächstes?
Die nächsten sechs Monate werden entscheidend sein. Das Verteidigungsministerium muss tief integrierte KI-Systeme ersetzen, ohne laufende Militäroperationen zu stören. Parallel dazu werden Bundesgerichte wahrscheinlich klären müssen, ob die Regierung ihre Befugnisse überschritt, indem sie ein Lieferkettenrisiko instrumentalisiert, um einen Vertragsstreit zu lösen.
Das Urteil in der bevorstehenden Klage von Anthropic könnte einen wichtigen Präzedenzfall schaffen. Bestätigen die Gerichte das Vorgehen des Pentagons, könnten andere Rüstungsunternehmen ihre ethischen Richtlinien aufgeben, um konform zu bleiben. Ein Sieg für Anthropic hingegen könnte andere Tech-Firmen ermutigen, strengere Auflagen für die militärische Nutzung ihrer Produkte zu fordern. Das würde die Zukunft der Rüstungsbeschaffung im KI-Zeitalter grundlegend verändern.
Hol dir jetzt den Wissensvorsprung der Aktien-Profis.
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Aktien-Empfehlungen - Dreimal die Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt kostenlos anmelden
Jetzt abonnieren.

