Anthropic verhandelt mit Pentagon nach Sicherheits-Streit
05.03.2026 - 06:21:58 | boerse-global.deDer KI-Entwickler Anthropic sucht nach der Eskalation mit dem US-Verteidigungsministerium wieder das Gespräch. Die Regierung hatte das Unternehmen als Sicherheitsrisiko eingestuft.
Anthropic und das US-Verteidigungsministerium haben die Verhandlungen wieder aufgenommen. Ziel ist eine Lösung im erbitterten Streit über ethische Grenzen von Militär-KI. Die Gespräche folgen auf eine beispiellose Eskalation Ende Februar. Damals stufte die Trump-Regierung den KI-Pionier als Bedrohung für die nationale Sicherheit ein. Sie untersagte zugleich die Nutzung seiner Technologie durch Bundesbehörden. Nun deutet sich eine Wende an.
Während Regierungen über ethische Leitplanken für Künstliche Intelligenz streiten, ist der rechtliche Rahmen in Europa bereits definiert. Dieser kostenlose Leitfaden erklärt Ihnen kompakt die Anforderungen und Fristen der neuen EU-KI-Verordnung. EU-KI-Verordnung kompakt: Endlich verständlich erklärt
Kernkonflikt: Ethische Leitplanken gegen militärische Flexibilität
Im Zentrum des Konflikts steht die Frage, wer die Regeln für den militärischen Einsatz von Künstlicher Intelligenz setzt. Im Juli 2025 hatte Anthropic einen Prototyp-Vertrag mit einem Volumen von bis zu 200 Millionen US-Dollar mit dem Militär geschlossen. Das Unternehmen bestand jedoch auf zwei strenge ethische Grenzen: Sein KI-Modell Claude darf nicht für die Massenüberwachung von US-Bürgern eingesetzt werden. Auch der Betrieb vollständig autonomer Waffensysteme ist tabu.
Die Spannungen eskalierte, als Verteidigungsminister Pete Hegseth verlangte, dass alle KI-Verträge breite Nutzungsklauseln enthalten müssen. Das Militär argumentiert, private Tech-Firmen dürften keine Einschränkungen vorgeben, die über geltendes Recht hinausgehen. Als Anthropic ein Ultimatum zur Streichung der Schutzklauseln bis zum 27. Februar ignorierte, folgte die harte Reaktion Washingtons.
Beispiellose Vergeltung und rechtliche Zweifel
Die Antwort der Regierung ging weit über einen üblichen Vertragsstreit hinaus. Präsident Donald Trump ordnete an, dass Bundesbehörden die Nutzung von Anthropic-Technologie einstellen müssen. Für bereits laufende Militärsysteme gilt eine sechsmonatige Übergangsfrist.
Gleichzeitig stufte Minister Hegseth das Unternehmen aus San Francisco als Risiko für die Lieferkette der nationalen Sicherheit ein. Diese Einstufung ist normalerweise Firmen vorbehalten, die mit ausländischen Gegnern in Verbindung stehen. Die Anordnung des Pentagons verbietet zudem allen Vertragspartnern des US-Militärs Geschäfte mit Anthropic. In der Praxis könnte dies den Zugang des Unternehmens zu wichtiger Cloud-Infrastruktur und zu Rüstungsriesen wie Lockheed Martin abschneiden.
Rechtsexperten bezweifeln die Zulässigkeit dieser Maßnahme. Sie sehen darin eine ideologische Reaktion, nicht eine begründete Sicherheitsentscheidung. Anthropic hat bereits angekündigt, die Einstufung notfalls vor Bundesgericht anzufechten.
Tech-Branche solidarisiert sich – OpenAI profitiert
Die Härte der US-Maßnahmen löste in der Tech-Industrie eine welle der Solidarität aus. Der einflussreiche Information Technology Industry Council (ITI), der Konzerne wie Amazon, Nvidia und Apple vertritt, protestierte formell. Die Branche kritisiert den Einsatz des Lieferketten-Instruments in einem Vertragsstreit.
Unter Druck von Investoren bestätigte Anthropic-CEO Dario Amodei diese Woche die Wiederaufnahme der Gespräche. Das Unternehmen betont gemeinsame Sicherheitsziele mit dem Militär und sucht einen Kompromiss.
Der Einsatz von KI-Systemen bringt nicht nur ethische, sondern auch neue sicherheitstechnische Herausforderungen für moderne Unternehmen mit sich. Erfahren Sie in diesem Experten-Report, wie Sie Ihre IT-Strategie an die aktuellen Bedrohungen und Gesetze anpassen. Was Geschäftsführer über Cyber Security 2024 wissen müssen
Der Wettbewerber OpenAI nutzte die Pattsituation indes geschickt aus. Das Unternehmen kündigte am Wochenende einen neuen Vertrag für den Einsatz seiner KI-Modelle in geheimen Militärnetzwerken an. OpenAI behauptet, ähnliche ethische Beschränkungen wie Anthropic zu wahren. Beobachter sehen darin einen pragmatischeren Regierungskurs – und zusätzlichen Druck auf Anthropic, eine Lösung zu finden.
Militärische Abhängigkeit und Signalwirkung
Der Streit offenbart ein Paradox: Das Militär ist von der Technologie abhängig, die es nun verbieten will. Berichte zeigen, dass Anthropics Claude-Modelle tief in Militärsysteme integriert sind, etwa in das Aufklärungsprojekt Project Maven. Die KI wurde unter anderem bei der Zielauswahl in jüngeren Operationen gegen den Iran genutzt.
Die angeordnete sechsmonatige Übergangsfrist unterstreicht die praktischen Schwierigkeiten. Der Ersatz der hochkomplexen KI-Systeme in laufenden Operationen ist eine enorme logistische Herausforderung.
Unter Verbrauchern scheint die kompromisslose Haltung von Anthropic hingegen gut anzukommen. Marktforschungsdaten zeigen, dass die Claude-App im März zur meistheruntergeladenen kostenlosen Chatbot-Anwendung in den USA aufstieg. Die laufenden Verhandlungen werden wegweisend sein. Sie entscheiden, wie demokratische Regierungen künftig mit der Integration von KI in die nationale Sicherheit umgehen.
Hol dir jetzt den Wissensvorsprung der Aktien-Profis.
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Aktien-Empfehlungen - Dreimal die Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt kostenlos anmelden
Jetzt abonnieren.

