Claude AI: Pentagon setzt verbotene KI im Iran-Konflikt ein
03.03.2026 - 22:50:28 | boerse-global.deTrotz eines strikten Verbots durch das Weiße Haus hat das US-Militär die KI Claude von Anthropic für Angriffe im Iran genutzt. Diese direkte Missachtung eines Präsidialerlasses offenbart die tiefe Abhängigkeit der Streitkräfte von der umstrittenen Technologie und einen beispiellosen Machtkampf über ethische Grenzen der Künstlichen Intelligenz.
Eklat zwischen Pentagon und Weißem Haus
Der Einsatz von Claude für Aufklärung und Zielauswahl in Iran erfolgte nur Stunden, nachdem Präsident Donald Trump am Freitag allen Bundesbehörden die sofortige Einstellung der Nutzung befohlen hatte. Das Pentagon, das die KI laut eigenen Angaben für Dokumentenanalyse und Logistik nutzt, befand sich damit im offenen Konflikt mit der Regierung. Die Streitkräfte argumentieren intern, ein sofortiger Stopp in kritischen Systemen sei technisch unmöglich – die vollständige Ablösung könnte drei Monate oder länger dauern.
Der Einsatz von KI-Systemen in sensiblen Bereichen erfordert klare Regeln und die Einhaltung gesetzlicher Rahmenbedingungen. Dieser kostenlose Leitfaden zur EU-KI-Verordnung hilft Ihnen, Anforderungen und Risikoklassen richtig einzuschätzen. Kostenloses E-Book zur KI-Verordnung herunterladen
Der Kern des Streits: Ethische „rote Linien“
Der Konflikt schwelt seit Wochen. Auslöser ist die Weigerung des KI-Sicherheitsspezialisten Anthropic, vertragliche Schutzvorkehrungen zu streichen. Das Unternehmen lehnt es ab, sein Modell für Massenüberwachung amerikanischer Bürger oder den Betrieb vollständig autonomer Waffensysteme ohne menschliche Kontrolle freizugeben. Ende Februar eskalierte der Disput, als Verteidigungsminister Pete Hegseth dem Anthropic-CEO Dario Amodei ein Ultimatum stellte: Die Beschränkungen fallen oder die lukrativen Regierungsaufträge sind weg.
Anthropic blieb hart. CEO Amodei erklärte, man könne die Forderungen „mit gutem Gewissen“ nicht erfüllen – eine Frage demokratischer Werte und technischer Limitationen. Diese öffentliche Konfrontation ist ein Präzedenzfall: Noch nie hat ein führender KI-Entwickler das US-Militär derart offen in ethischen Fragen herausgefordert.
Weißes Haus schlägt zurück mit harten Sanktionen
Als Reaktion auf die Blockade verhängte Präsident Trump nicht nur das Nutzungsverbot mit einer sechsmonatigen Übergangsfrist. Verteidigungsminister Hegseth stufte Anthropic zudem als „Risiko für die Lieferkette“ ein – eine scharfe Kategorie, die normalerweise ausländischen Gegnern vorbehalten ist. Regierungsstellen wie das Finanz- und Außenministerium begannen umgehend mit der Abschaltung der Anthropic-Tools.
Der General Services Administration, der zentralen Beschaffungsstelle der US-Regierung, wurde angewiesen, Anthropic aus ihrem Marktplatz zu entfernen. Das schneidet das Unternehmen von einem Hauptkanal für Staatsaufträge ab.
Nicht nur im Militär, auch in der Wirtschaft verschärfen neue Gesetze zur Künstlichen Intelligenz und Cyber Security die Haftungsrisiken für Entscheider. Erfahren Sie im Experten-Report, wie Sie Ihr Unternehmen proaktiv schützen und regulatorische Vorgaben erfüllen. Cyber Security & KI-Gesetze: Jetzt Gratis-Report sichern
OpenAI springt in die Bresche – unter Bedingungen
Die Kontroverse verändert das Wettbewerbsfeld schlagartig. Nur Stunden nach der Ächtung von Anthropic verkündete der Rivale OpenAI eine neue Vereinbarung mit dem Pentagon. Bemerkenswert: Auch dieses Abkommen verbietet ausdrücklich Massenüberwachung und autonome Waffen – jene „roten Linien“, die zum Bruch mit Anthropic führten.
Öffentlichkeit reagiert mit gesteigertem Interesse
Der Machtkampf hat einen unerwarteten Nebeneffekt: Das öffentliche Interesse an Claude ist explodiert. In den Tagen nach der Eskalation stieg die Claude-App zur meistheruntergeladenen in den USA auf und überholte sogar den Marktführer ChatGPT.
Die kommenden Monate werden richtungsweisend für die Zukunft der KI in Militär und Sicherheit. Das Pentagon muss den Übergang von einer tief verwurzelten Technologie meistern, während es die neue Partnerschaft mit OpenAI aufbaut. Dieser Konflikt hat die Debatte über KI-Ethik aus dem Theoretischen in die harte operative Realität geholt. Er wirft drängende Fragen auf: Wer kontrolliert letztlich den Einsatz mächtiger KI-Systeme? Welche Schutzvorkehrungen sind nötig, wenn diese Technologien zur Kriegsführung immer zentraler werden? Die Entscheidungen in diesem beispiellosen Konflikt werden das Verhältnis zwischen Silicon Valley und dem nationalen Sicherheitsapparat auf Jahre prägen.
Hol dir jetzt den Wissensvorsprung der Aktien-Profis.
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt kostenlos anmelden
Jetzt abonnieren.

