Anthropic, US-Regierung

Anthropic verliert US-Regierung als Kunden nach Sicherheitsstreit

03.03.2026 - 15:30:39 | boerse-global.de

Die US-Regierung hat alle Verträge mit Anthropic beendet, nachdem das Unternehmen ethische Sperren für militärische KI-Nutzung ablehnte. OpenAI profitiert als neuer Partner des Verteidigungsministeriums.

Die US-Regierung wirft den KI-Pionier Anthropic aus allen Behörden. Grund ist ein erbitterter Streit über ethische Sicherheitsvorkehrungen, die das Militär einschränken würden. Das Weiße Haus stufte das Unternehmen als Sicherheitsrisiko ein.

Das Aus für Anthropic kam mit einer Direktive von Präsident Donald Trump am 27. Februar. Sie ordnet einen sofortigen Stopp aller Verträge mit dem KI-Entwickler an. Das Verteidigungsministerium hatte das Unternehmen zuvor als „Risiko für die Lieferkette“ eingestuft – eine Bezeichnung, die normalerweise Anbietern aus feindlichen Nationen vorbehalten ist. Auslöser war die Weigerung Anthropics, ethische Sperren in seinen KI-Modellen für militrische Nutzung zu entfernen.

Anzeige

Während staatliche Institutionen ihre KI-Nutzung drastisch einschränken, müssen Unternehmen in der EU bereits seit August 2024 die neuen gesetzlichen Rahmenbedingungen für Künstliche Intelligenz einhalten. Dieser kostenlose Leitfaden erklärt Ihnen verständlich alle Pflichten, Risikoklassen und Fristen der aktuellen EU-KI-Verordnung. Gratis E-Book mit Umsetzungsleitfaden herunterladen

Bundesbehörden stoppen KI-Nutzung sofort

Die Reaktion in der Hauptstadt Washington fiel umgehend aus. Das Finanzministerium, das Außenministerium und das Gesundheitsministerium bestätigten den Ausstieg. Die Bundesbehörde für Wohnungsfinanzierung (FHFA) zieht mit. Selbst die General Services Administration (GSA) entfernt Anthropic-Dienste von ihren Einkaufsplattformen. Neue Beschaffungen sind damit blockiert.

Besonders spürbar ist der Wechsel im Außenministerium. Dort wird der interne Chat-Dienst „StateChat“ von Anthropics KI Claude auf das Konkurrenzmodell GPT-4.1 von OpenAI umgestellt. Das Gesundheitsministerium wies seine Mitarbeiter an, auf andere zugelassene KI-Lösungen umzusteigen. Für tief integrierte Systeme, vor allem beim Militär, gilt eine sechsmonatige Übergangsfrist. Verträge im Volumen von bis zu 200 Millionen Euro stehen auf dem Spiel.

Der Knackpunkt: Ethische Sperren für das Militär

Im Kern geht es um die Frage: Wer kontrolliert die mächtigste KI-Technologie? Die gescheiterten Vertragsverhandlungen mit dem Pentagon brachten den Konflikt zum Eskalieren. Anthropic bestand auf vertraglichen Klauseln, die den Einsatz seiner KI für bestimmte Zwecke verbieten sollten. Dazu zählen Massentiberwachung im Inland und der Betrieb in vollautonomen Waffensystemen ohne menschliche Kontrolle.

Das Unternehmen verteidigte diese „Sicherheitsvorkehrungen“ als essenziell für einen verantwortungsvollen Einsatz. Die Regierung unter Präsident Trump sah darin jedoch eine inakzeptable Einschränkung. Kein Privatunternehmen dürfe der nationalen Sicherheit Bedingungen diktieren, so die Position aus dem Weißen Haus. Anthropic kündigte an, die Einstufung als Sicherheitsrisiko gerichtlich anzufechten. Sie sei rechtlich fragwürdig und setze einen gefährlichen Präzedenzfall.

Anzeige

Der Einsatz neuer Technologien wie KI bringt nicht nur ethische Fragen, sondern auch neue regulatorische Anforderungen und Sicherheitsrisiken für die gesamte IT-Infrastruktur mit sich. Wie Geschäftsführer ihre Cyber Security 2024 stärken und welche neuen Gesetze dabei eine Rolle spielen, erfahren Sie in diesem Experten-Report. Kostenloses E-Book zu Cyber-Security-Trends sichern

OpenAI profitiert – und die Branche schaut besorgt

Der erzwungene Abgang schafft ein Machtvakuum, das die Konkurrenz sofort füllt. Der Hauptrivale OpenAI verkündete kurz nach der Entscheidung eine neue Vereinbarung mit dem Verteidigungsministerium. Seine KI-Modelle sollen nun in klassifizierten Regierungsnetzen zum Einsatz kommen.

Für die Tech-Branche ist der Vorgang ein Warnsignal. Er zeigt die wachsende Spannung zwischen KI-Entwicklern, die für vorsichtige Implementierung plädieren, und Regierungen, die die Technologie für Wettbewerbsvorteile nutzen wollen. Die US-Regierung nutzt ihre Einkaufsmacht, um Compliance zu erzwingen. Das könnte einen abschreckenden Effekt auf Unternehmen haben, die ethische Leitplanken priorisieren, die mit staatlichen Forderungen kollidieren.

Was bedeutet das für die Zukunft der KI?

Die Folgen werden die Landschaft der KI-Beschaffung in Washington auf Jahre prägen. Bundesbehörden müssen jetzt Ersatz für die weit verbreiteten Claude-Modelle finden und prüfen – ein Prozess, der zahlreiche Arbeitsabläufe stören wird.

Für die globale KI-Industrie ist der Fall Anthropic ein Weckruf. Der Weg zur Partnerschaft mit Staaten hängt nicht mehr nur von der technischen Leistungsfähigkeit ab. Entscheidend ist die Übereinstimmung mit der Regierungspolitik zu Kontrolle und Einsatz. Der Präzedenzfall zwingt andere Entwickler möglicherweise dazu, ihre ethischen Sicherheitsvorkehrungen und ihre Bereitschaft, die Kontrolle abzugeben, neu zu bewerten. Die Ära der unbeschwerten KI-Partnerschaften zwischen Tech-Firmen und dem Staat könnte damit vorbei sein.

Hol dir den Wissensvorsprung der Aktien-Profis.

Hol dir den Wissensvorsprung der Aktien-Profis.

Seit 2005 liefert der Börsenbrief trading-notes verlässliche Aktien-Empfehlungen - Dreimal die Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt kostenlos anmelden
Jetzt abonnieren.

boerse | 68631296 |