US-Regierung verbannt KI-Pionier Anthropic aus Behörden
28.02.2026 - 22:10:56 | boerse-global.deWashington D.C. – Die US-Regierung hat alle Bundesbehörden angewiesen, die Technologie des KI-Unternehmens Anthropic nicht mehr zu nutzen. Grund ist ein unüberbrückbarer Konflikt um ethische Grenzen für Künstliche Intelligenz. Konkurrent OpenAI rückt sofort nach.
Die beispiellose Anordnung markiert das Ende einer Woche gescheiterter Verhandlungen mit dem Verteidigungsministerium. Die Pentagon-Führung hatte bis Freitag gefordert, dass Anthropic seine mächtigen KI-Modelle – darunter das bekannte Claude-System – für „alle legalen Zwecke“ freigibt. Das Unternehmen, das sich auf KI-Sicherheit spezialisiert hat, lehnte ab. Die Regierung stufte Anthropic daraufhin als „Risiko für die nationale Sicherheit“ ein und leitete eine sechsmonatige Ausphasung ein.
Während die US-Behörden noch über ethische Grenzen streiten, schafft die neue EU-KI-Verordnung bereits klare Fakten für hiesige Unternehmen. Dieser kostenlose Leitfaden erklärt verständlich, welche neuen Anforderungen und Risikoklassen nun für Sie gelten. EU-KI-Verordnung kompakt: Endlich verständlich erklärt
Ethische „Rote Linien“ als Stolperstein
Im Zentrum des Streits stehen zwei konkrete Anwendungen, die Anthropic grundsätzlich ausschließt: Massenüberwachung der eigenen Bevölkerung und der Einsatz in vollautonomen Waffensystemen. Das Unternehmen argumentiert, die Technologie sei für solche Zwecke weder verlässlich noch sicher genug. Zudem könnten Grundrechte gefährdet werden.
Trotz dieser Einschränkungen war Anthropic ein wichtiger Partner für US-Sicherheitsbehörden. Als erstes Unternehmen durfte es ein Spitzen-KI-Modell in den geheimen Militärnetzen einsetzen – etwa für Analysen und Operationsplanung. Laut Firmenangaben behinderten die ethischen Verbote bisher keine einzige Mission.
Das Pentagon unter Secretary Pete Hegseth sah das anders. Die Behörde pochte darauf, Zugriff auf KI für jede legale Tätigkeit zu haben. Private Unternehmen dürften nicht die Bedingungen militärnetze diktieren. Diese unvereinbaren Positionen führten zum Bruch.
OpenAI springt ein – mit ähnlichen Regeln
Die Reaktion der Regierung folgte schnell. Nach einem Post von Präsident Donald Trump auf X, der ein sofortiges Ende der Nutzung forderte, formalisierte das Pentagon das Verbot. Verteidigungsminister Hegseth untersagte auch Militärunternehmen die Geschäfte mit Anthropic.
Das Unternehmen kündigte an, die Einstufung als Sicherheitsrisiko juristisch anzufechten. Diese Maßnahme sei beispiellos und eigentlich ausländischen Gegnern vorbehalten, nicht amerikanischen Firmen.
In einer überraschenden Wendung verkündete OpenAI-CEO Sam Altman nur Stunden später eine neue Vereinbarung mit dem Pentagon. Sein Unternehmen werde nun KI-Modelle für die geheimen Militärnetze liefern. Entscheidend: Der Vertrag verbiete ausdrücklich Massenüberwachung im Inland und verlange menschliche Verantwortung bei Gewalteinsatz – genau die Prinzipien, die zum Streit mit Anthropic führten.
Der Streit um nationale Sicherheit verdeutlicht, wie kritisch der Schutz technologischer Infrastrukturen heute ist. Erfahren Sie in diesem Experten-Report, wie mittelständische Unternehmen ihre IT-Sicherheit proaktiv stärken können, ohne dabei das Budget zu sprengen. Effektive Strategien gegen Cyberkriminelle entdecken
Wettlauf um KI-Superiorität unter Druck
Der Konflikt eskaliert in einer heiklen Phase für die Branche. Erst vor wenigen Tagen lockerte Anthropic seine interne „Responsible Scaling Policy“. Das Unternehmen kündigte an, die Entwicklung leistungsfähigerer KI-Modelle nicht mehr automatisch zu pausieren, selbst wenn Sicherheitsmaßnahmen hinterherhinken.
Als Grund nannte Anthropic den intensiven Wettbewerb und zu langsame staatliche Regulierung. Die Entscheidung zeigt den enormen Druck, unter dem KI-Labore stehen: Sie müssen ethische Grundsätze gegen Konkurrenzdruck und staatliche Forderungen abwägen.
Was bedeutet das für die Zukunft?
Die Konfrontation ist ein Wendepunkt für die Zusammenarbeit zwischen KI-Industrie und Staat. Sie ist der erste große öffentliche Test, ob ein führendes KI-Unternehmen lukrative Regierungsaufträge zugunsten seiner Ethik-Richtlinien ablehnt.
Die paradoxe Situation: Anthropic wird verbannt, weil es bestimmte ethische Grenzen nicht aufheben will. Sein Konkurrent OpenAI übernimmt den lukrativen Vertrag – und verpflichtet sich vertraglich auf sehr ähnliche Grenzen. Das schafft einen widersprüchlichen Präzedenzfall für künftige Partnerschaften.
Die kommenden Monate werden entscheidend sein. Anthropic muss sich ohne US-Regierungsaufträge neu aufstellen und gleichzeitig vor Gericht ziehen. OpenAI steht unter scharfer Beobachtung: Wird es seine ethischen Zusagen im militärischen Alltag auch durchhalten?
Der Streit hat die Debatte um die Militarisierung von KI und ihren Einsatz in der Überwachung neu entfacht. Der Druck auf den US-Kongress wächst, klare und verbindliche Gesetze für diese Schlüsseltechnologie zu schaffen.
Hol dir jetzt den Wissensvorsprung der Aktien-Profis.
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt kostenlos anmelden
Jetzt abonnieren.


