US-Regierung stoppt alle Verträge mit KI-Firma Anthropic
02.03.2026 - 20:00:23 | boerse-global.deDie US-Regierung hat alle Bundesbehörden angewiesen, die Technologie des KI-Entwicklers Anthropic sofort nicht mehr zu nutzen. Grund ist ein unüberbrückbarer ethischer Konflikt um den militärischen Einsatz Künstlicher Intelligenz.
Eklat um ethische „rote Linien“
Im Zentrum des Streits steht die Weigerung von Anthropic, Sicherheitsvorkehrungen in seinem KI-Modell Claude zu entfernen. Diese verhindern den Einsatz für Massenüberwachung US-amerikanischer Bürger und für vollständig autonome Waffensysteme. Firmenchef Dario Amodei bezeichnete diese Anwendungen als nicht verhandelbare „rote Linien“.
Das Pentagon forderte hingegen uneingeschränkten Zugang für alle „gesetzlichen Zwecke“. Die Verhandlungen scheiterten, als das Verteidigungsministerium ein Ultimatum stellte: Einschränkungen streichen oder Konsequenzen tragen. Anthropic blieb hart. Man könne „mit gutem Gewissen“ nicht zustimmen, so Amodei.
Während die US-Regierung Firmen wie Anthropic zunehmend als Sicherheitsrisiko einstuft, wächst auch für hiesige Unternehmen der Druck zur Absicherung ihrer IT-Infrastruktur. Was Geschäftsführer jetzt über Cyber-Security und die neuen gesetzlichen Rahmenbedingungen wissen müssen, zeigt dieser Experten-Report. Was Geschäftsführer über Cyber Security 2024 wissen müssen
Beispiellose Sanktionen gegen US-Firma
Die Reaktion der Regierung war drastisch. Per Direktive von Präsident Donald Trump wurde die Nutzung sofort gestoppt. Verteidigungsminister Pete Hegseth stufte Anthropic zudem als „Risiko für die Lieferkette“ ein. Diese Einstufung, normalerweise ausländischen Gegnern wie Huawei vorbehalten, verbietet jedem Militärzulieferer die Zusammenarbeit mit Anthropic.
Der KI-Entwickler kündigte an, gegen die Einstufung vor Gericht zu ziehen. Sie sei rechtlich fragwürdig und setze einen „gefährlichen Präzedenzfall“ für Verhandlungen zwischen Unternehmen und Staat.
OpenAI springt ein – mit eigenen Bedingungen
Die Lücke füllt prompt der größte Konkurrent. OpenAI gab bekannt, einen neuen Vertrag mit dem Pentagon abgeschlossen zu haben. Laut CEO Sam Altman beinhaltet dieser Abkommen genau die ethischen Prinzipien, für die Anthropic kämpfte: Verbot von Massenüberwachung im Inland und die Forderung nach menschlicher Verantwortung bei Gewalteinsatz.
Dennoch äußerte sich Altman kritisch zur Vorgehensweise der Regierung. Die Ächtung von Anthropic sei ein „extrem beängstigendes Präzedenz“. Die Hauptverantwortung trage die mächtigere Partei – die Regierung.
Die Debatte um ethische rote Linien und staatliche Vorgaben zeigt, wie komplex die Regulierung von KI-Systemen in der Praxis ist. Dieser kostenlose Leitfaden hilft Unternehmen dabei, die Anforderungen der neuen KI-Verordnung rechtssicher zu verstehen und umzusetzen. EU-KI-Verordnung kompakt: Endlich verständlich erklärt, welche Pflichten für Ihr Unternehmen gelten
Was bedeutet das für die Zukunft?
Die Vertragskündigung löst erhebliche operative Probleme aus. Das Pentagon hat nun sechs Monate Zeit, die tief in seinen Systemen verankerte Claude-KI zu ersetzen. Für Wettbewerber wie Google oder xAI eröffnen sich Chancen.
Der Konflikt wird die künftige Beschaffung von KI-Technologie durch die US-Regierung prägen. Er wirft grundlegende Fragen auf: Wer kontrolliert mächtige KI-Systeme? Welche ethischen Grenzen sind unverhandelbar? Die kommenden Monate und der angekündigte Rechtsstreit werden entscheidend sein für das Machtgleichgewicht im Zeitalter der Künstlichen Intelligenz.
Hol dir jetzt den Wissensvorsprung der Aktien-Profis.
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Aktien-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr.
Jetzt abonnieren.


