Anthropic kämpft um Militär-Deal nach US-Blacklisting
05.03.2026 - 10:51:33 | boerse-global.deKI-Startup versöhnt sich mit Pentagon – doch der Streit um Ethik bleibt.
Nach einem öffentlichen Zerwürfnis mit dem US-Militär bemüht sich das KI-Unternehmen Anthropic intensiv um eine Wiederannäherung an das Verteidigungsministerium. Das bestätigte die Führung des Unternehmens auf einer Investorenkonferenz Anfang März 2026. Hintergrund sind Gespräche, die den jüngsten Vertragsbruch und das folgende Blacklisting beilegen sollen. Die Kehrtwende kommt nur Tage, nachdem die US-Regierung dem kalifornischen Startup schwere nationale Sicherheitsbeschränkungen auferlegte. Der Konflikt entzündete sich an der Frage, wie weit der Einsatz von KI-Modellen in Krieg und Überwachung gehen darf.
Führung signalisiert Dialogbereitschaft
Auf der Morgan Stanley-Konferenz in San Francisco am 3. März gab CEO Dario Amodei Einblick in die angespannte Lage. Laut Medienberichten laufen derzeit Gespräche mit Pentagon-Vertretern, um die Spannungen abzubauen und eine für beide Seiten akzeptable Lösung zu finden.
Der Fall Anthropic zeigt, wie schnell technologische Innovationen mit neuen Regularien kollidieren können. Dieser kostenlose Leitfaden erklärt kompakt, welche Pflichten und Fristen die aktuelle EU-KI-Verordnung für Unternehmen vorsieht. KI-Verordnung: Jetzt Umsetzungsleitfaden kostenlos sichern
Amodei betonte vor den Investoren, sein Unternehmen und das Militär teilten grundlegende patriotische Werte. Die Gemeinsamkeiten überwögen die Differenzen bei weitem. Anthropic sehe sich ausschließlich als Technologieanbieter, nicht als Teil militärischer Operationen. Diese diplomatische Tonlage steht im starken Kontrast zu den harschen öffentlichen Statements der vergangenen Woche. Offenbar versucht das KI-Labor, seinen Ruf bei staatlichen Auftraggebern zu retten und langwierige Rechtsstreite zu vermeiden.
Vertragsbruch wegen ethischer Bedenken
Die Eskalation nahm Ende Februar 2026 ihren Lauf. Auslöser war eine geplante Partnerschaft mit einem Volumen von rund 185 Millionen Euro. Das Pentagon unter Verteidigungsminister Pete Hegseth bestand darauf, dass die KI für jeden rechtmäßigen Zweck einsetzbar sein müsse.
Anthropic weigerte sich, entsprechende Klauseln aus seinen Nutzungsbedingungen zu streichen. Das Unternehmen hält an strikten Verboten fest: Seine Claude-KI darf nicht für Massenüberwachung US-amerikanischer Bürger oder den Betrieb tödlicher autonomer Waffensysteme eingesetzt werden. Die Technologie sei für solche Hochrisiko-Anwendungen nicht zuverlässig genug, so die Argumentation, und Massenüberwachung verletze Grundrechte.
Die US-Regierung reagierte umgehend und hart. Präsident Donald Trump wies alle Bundesbehörden an, Anthropic-Produkte sofort nicht mehr zu nutzen. Minister Hegseth stufte das Startup offiziell als Risiko für die Lieferkette der nationalen Sicherheit ein. Experten halten diesen Schritt für höchst ungewöhnlich. Diese Einstufung wird normalerweise ausländischen Firmen aus rivalisierenden Nationen vorbehalten, nicht einem amerikanischen Unternehmen.
OpenAI profitiert – und die Nutzer strömen zu Claude
Die öffentliche Auseinandersetzung löste sofort Turbulenzen im Technologiemarkt aus. Konkurrent OpenAI verkündete kurz nach dem Blacklisting einen neuen Vertrag zur Nutzung seiner Systeme in militärischen Geheimnetzen. OpenAI behauptet, ähnliche Schutzklauseln wie Anthropic vereinbart zu haben. Beobachter äußerten jedoch Skepsis angesichts dieser schnellen Kehrtwende des Pentagons.
Paradoxerweise löste die staatliche Ächtung einen wahren Boom bei Privatnutzern aus. Die Claude-App kletterte am ersten März-Wochenende an die Spitze der US-Charts im Apple App Store und verdrängte vorübergehend ChatGPT. Der massive Nutzeransturm führte am 2. März sogar zu Serverausfällen. Analysten sehen in dem Streit einen unbeabsichtigten Marketing-Coup: Das Profil des Unternehmens bei Bürgern, die Privatsphäre und ethische KI schätzen, wurde enorm gestärkt.
Grundsatzstreit mit globalen Folgen
Der Konflikt zwischen Silicon Valley und Pentagon offenbart ein wachsendes strukturelles Problem. Die wichtigsten Entscheidungen über den ethischen Einsatz von KI werden derzeit in privaten Verträgen ausgehandelt – nicht durch umfassende Gesetze oder internationale Abkommen.
Rechtsexperten kritisieren die Einstufung Anthropics als Lieferkettenrisiko scharf. Das Gesetz ziele eigentlich auf ausländische Gegner ab, die die nationale Sicherheit untergraben wollten. Seine Anwendung auf einen US-Anbieter wegen vertraglicher Differenzen sprengt nach Ansicht von Kritikern den gesetzlichen Rahmen.
Während Großkonzerne um ethische Leitplanken ringen, müssen Unternehmen hierzulande bereits konkrete Compliance-Regeln zur Cyber-Sicherheit erfüllen. Erfahren Sie in diesem Experten-Report, wie Sie Ihre IT-Infrastruktur effizient und rechtssicher gegen moderne Bedrohungen schützen. Kostenlosen Cyber-Security-Leitfaden für Unternehmen herunterladen
Die Anordnung der Regierung verbietet theoretisch auch bestehenden Pentagon-Partnern jede Geschäftsbeziehung mit Anthropic. Sollte dies strikt durchgesetzt werden, müssten große Cloud-Anbieter und Softwarefirmen wählen: lukrative Militärverträge oder die Partnerschaft mit dem KI-Labor. Diese Sekundärblockade könnte massive Störungen im gesamten Technologie-Ökosystem auslösen.
Sechs Monate Zeit für eine Lösung
Die unmittelbare Zukunft von Anthropics Geschäft mit dem Staat bleibt ungewiss. Die ursprüngliche Pentagon-Anordnung sieht eine Übergangsfrist von maximal sechs Monaten vor. In dieser Zeit soll das Militär die Claude-Systeme ersetzen, ohne laufende Operationen zu gefährden.
Sollten die von Amodei erwähnten Hintergrundgespräche scheitern, will das Unternehmen die Einstufung als Sicherheitsrisiko vor einem Bundesgericht anfechten. Ein solcher Rechtsstreit würde die KI-Strategie des Militärs und die Grenzen der Beschaffungsvollmachten schonungslos öffentlich machen.
Die Tech-Branche beobachtet die Verhandlungen mit Spannung. Das Ergebnis dieses Disputs wird einen wichtigen Präzedenzfall schaffen. Er wird definieren, wie die US-Regierung mit führenden KI-Laboren umgeht – und das Kräfteverhältnis zwischen privater Innovation und staatlichen Sicherheitsinteressen auf Jahre hinaus prägen.
Hol dir jetzt den Wissensvorsprung der Aktien-Profis.
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Aktien-Empfehlungen - Dreimal die Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt kostenlos anmelden
Jetzt abonnieren.

