US-Militär verbietet KI von Anthropic nach Ethik-Konflikt
04.03.2026 - 01:09:26 | boerse-global.deDie US-Regierung hat alle Behörden angewiesen, künstliche Intelligenz des Unternehmens Anthropic nicht mehr zu nutzen. Grund ist ein unüberbrückbarer Streit über ethische Grenzen beim militärischen Einsatz. Die als Lieferkettenrisiko eingestufte Firma weigerte sich, ihre KI für Massenüberwachung oder autonome Waffen freizugeben.
Ethische Prinzipien gegen militärische Forderungen
Der Konflikt eskalierte, als Verteidigungsminister Pete Hegseth von Anthropic verlangte, seine KI-Modelle ohne Einschränkung für alle legalen Zwecke freizugeben. CEO Dario Amodei lehnte dies Ende Februar 2026 ab und hielt an den strikten Verboten für autonome Waffensysteme und innere Überwachung fest. Zuvor hatte das Pentagon erwogen, das Verteidigungsproduktionsgesetz zu nutzen, um die Sicherheitsvorkehrungen des Unternehmens zu umgehen.
Der beschriebene Konflikt verdeutlicht, wie schnell sich der rechtliche Rahmen für KI-Systeme ändern kann. Dieser kostenlose Leitfaden erklärt kompakt die Anforderungen und Pflichten der neuen EU-KI-Verordnung für Unternehmen. EU-KI-Verordnung kompakt: Jetzt Gratis-E-Book sichern
Stattdessen erklärte das Militär Anthropic nun zum nationalen Sicherheitsrisiko – eine Maßnahme, die normalerweise ausländischen Gegnern vorbehalten ist. Die Anordnung untersagt allen Vertragspartnern des US-Militärs geschäftliche Beziehungen zu dem KI-Labor. Das bedroht nicht nur einen bestehenden Vertrag im Wert von rund 185 Millionen Euro, sondern zwingt auch Cloud-Giganten wie Amazon Web Services und Google zu einer schwierigen Entscheidung: die Verbindung zu Anthropic kappen oder lukrative Regierungsaufträge riskieren.
Anthropic kündigte an, die Einstufung vor Bundesgerichten anzufechten. Juristen halten die rechtliche Grundlage des Verbots für äußerst fragwürdig.
Militärische Abhängigkeit und technische Grenzen
Das sechsmonatige Auslaufen der Anthropic-Technologie legt tiefe Abhängigkeiten in geheimen Militärnetzwerken offen. Dessen KI-Modell Claude war zuvor als einziges großes Sprachmodell für den umfassenden Einsatz in klassifizierten Systemen des Verteidigungsministeriums zugelassen. Laut Pentagon-Cheftechnologe Emil Michael ist das Militär für komplexe Logistik, Lieferkettenoptimierung und die schnelle Auswertung von Geheimdienstinformationen stark auf Claude angewiesen.
Trotz sofortigen Nutzungsstopps könnte die Trennung von der Infrastruktur Monate dauern. Medienberichten zufolge setzte das US-Militär Claude sogar noch während jüngster Konflikte im Nahen Osten für Operationsplanungen ein.
Der Streit entfachte eine grundsätzliche Debatte über die Zuverlässigkeit generativer KI in Kriegsszenarien. „Die KI-Branche hat die Fähigkeiten ihrer Modelle überhöht, um Verteidigungsaufträge zu erhalten“, kritisiert Missy Cummings, Robotik-Expertin und ehemalige Marine-Pilotin. Ihre Forschung zeigt: Aktuelle Chatbot-Technologien sind nicht zuverlässig genug, um Waffensysteme zu steuern, ohne schwere Fehler und zivile Opfer zu riskieren.
Marktverschiebungen und OpenAIs Opportunismus
Die öffentliche Kontroverse löste erhebliche Verschiebungen im KI-Markt aus. Die Verbraucherstimmung schwenkte zugunsten von Anthropics ethischer Haltung. Anfang März 2026 überstiegen die Downloads der Claude-App in den USA erstmals die des Konkurrenzprodukts ChatGPT.
OpenAI nutzte die Gelegenheit und schloss Ende Februar einen eigenen Geheimdienst-Vertrag mit dem Pentagon ab – als direkter Ersatz für Claude. Interessanterweise betonte OpenAI, ähnliche ethische Schranken gegen Massenüberwachung und autonome Waffen vereinbart zu haben. Verteidigungsexperten fragen sich nun, warum das Pentagon bei OpenAI akzeptierte, was es bei Anthropic ablehnte.
Die schnelle Integration führte zu einer Flut negativer Bewertungen für die ChatGPT-App. OpenAI-CEO Sam Altman räumte ein, der Rollout wirke opportunistisch und schlecht umgesetzt. Er startete Diskussionen über engere Partnerschaften zwischen Regierungen und KI-Entwicklern und erwog sogar eine mögliche Verstaatlichung von Projekten zur künstlichen allgemeinen Intelligenz.
Während Regierungen über die Verstaatlichung von KI diskutieren, müssen Unternehmen ihre eigene digitale Infrastruktur vor neuen Bedrohungen schützen. Erfahren Sie in diesem Experten-Report, wie Sie Ihre Cyber-Security ohne Budget-Explosion stärken. Effektive Strategien gegen Cyberangriffe kostenlos entdecken
Paradigmenwechsel für KI-Beschaffung
Das Vorgehen gegen Anthropic markiert einen Wendepunkt in der Beschaffung und Regulierung von KI durch die US-Regierung. Das Finanzministerium und die Beschaffungsbehörde GSA beenden bereits ihre Vereinbarungen mit dem Unternehmen und nehmen es aus den federalen Beschaffungslisten. Die Militärsperre weitet sich damit auf zivile Bundesbehörden aus.
Vertragsunternehmen der Verteidigung stehen unter Druck, ihre Software-Lieferketten zu überprüfen und Claude aus ihren Arbeitsabläufen zu entfernen. Global unterstreicht der Disput die wachsende Kluft zwischen den nationalen Ansätzen zu militärischer KI. Während die UN weiter zu globalen ethischen Leitplanken aufruft, demonstrieren die USA ihren Willen zur technologischen Dominanz ohne Einschränkungen.
Der kommende Rechtsstreit wird wegweisende Präzedenzfälle für öffentlich-private Partnerschaften schaffen. Die Kernfrage bleibt: Wer setzt die ethischen Grenzen für künstliche Intelligenz in der nationalen Sicherheit – demokratische Regierungen oder private Technologieunternehmen?
Hol dir jetzt den Wissensvorsprung der Aktien-Profis.
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Aktien-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr.
Jetzt abonnieren.

