US-Regierung, Anthropic

US-Regierung verbietet KI von Anthropic – Streit um Ethik eskaliert

01.03.2026 - 07:10:01 | boerse-global.de

Die US-Regierung untersagt allen Bundesbehörden die Nutzung der KI-Technologie von Anthropic. Auslöser ist ein Streit über ethische Grenzen bei militärischen Anwendungen wie Massenüberwachung.

Die US-Regierung unter Donald Trump hat den Einsatz von Künstlicher Intelligenz des Unternehmens Anthropic in allen Bundesbehörden komplett verboten. Diese dramatische Eskalation folgt auf einen öffentlichen Streit über KI-Ethik und nationale Sicherheit. Das Pentagon stufte das Unternehmen zudem als „Risiko für die Lieferkette“ ein – ein Schritt mit potenziell verheerenden Folgen für die Firma.

Ultimatum führte zum Bruch

Auslöser ist die Weigerung von Anthropic, zentrale Sicherheitsvorkehrungen bei seinem KI-Modell Claude zu entfernen. Das Unternehmen widersetzte sich Forderungen des Verteidigungsministeriums, seine Technologie uneingeschränkt nutzen zu dürfen. Konkret ging es um Bedenken gegenüber Massenüberwachung der eigenen Bevölkerung und vollautonomen Waffensystemen.

Anzeige

Während die USA drastische Verbote aussprechen, rücken auch hierzulande neue Sicherheitsvorgaben für Künstliche Intelligenz in den Fokus. Dieser kostenlose Leitfaden zeigt Geschäftsführern, welche neuen KI-Gesetze und Cyber-Security-Trends sie 2024 kennen müssen. Was Geschäftsführer über Cyber Security 2024 wissen müssen

Präsident Trump ordnete auf seiner Plattform Truth Social an, die Nutzung „SOFORT“ einzustellen. Eine sechsmonatige Übergangsfrist soll Behörden wie das Pentagon ermöglichen, die bereits integrierte KI auszuschleichen. Verteidigungsminister Pete Hegseth formalisierte die Einstufung als Lieferketten-Risiko, was Geschäfte von Militärpartnern mit Anthropic praktisch unmöglich macht.

Kernkonflikt: Ethik vs. nationale Sicherheit

Im Zentrum des Konflikts steht ein grundsätzlicher Dissens über ethische Leitplanken bei militärischer KI. Anthropic wollte explizite Zusagen, dass Claude nicht für Massenüberwachung oder autonome Waffen ohne menschliche Kontrolle eingesetzt wird. Das Unternehmen hält aktuelle KI-Modelle für solche Hochrisiko-Anwendungen für nicht zuverlässig genug.

Das Pentagon beharrte dagegen auf uneingeschränktem Zugang für alle legalen Zwecke – auch ohne konkrete Pläne für die umstrittenen Anwendungen. Die Behörde sah die Haltung von Anthropic als Gefährdung kritischer Militäroperationen. Der öffentliche Streit markiert einen Wendepunkt im Verhältnis zwischen Silicon Valley und dem US-Militär.

Unprezedentierte Einstufung als Risiko

Die Einstufung als Lieferketten-Risiko war bisher ausländischen Unternehmen wie Chinas Huawei vorbehalten. Für ein US-Unternehmen ist dies beispiellos. Die Maßnahme zielt darauf ab, die Verbindungen von Anthropic zum riesigen Netzwerk der US-Rüstungsindustrie zu kappen und gefährdet auch kommerzielle Partnerschaften.

Anthropic kündigte an, die Einstufung gerichtlich anzufechten. Das Unternehmen nannte den Schritt rechtlich fragwürdig und ohne Präzedenzfall. Die Verhandlungen mit dem Pentagon seien in gutem Glauben geführt worden, die beiden ethischen Ausnahmen hätten bisher keine einzige Regierungsmission beeinträchtigt.

OpenAI springt ein – mit ähnlichen Regeln

Die Branche reagiert geschockt. In einer überraschenden Wendung kündigte OpenAI-CEO Sam Altman nur Stunden nach dem Bann eine neue Partnerschaft mit dem Pentagon an. Sein Unternehmen soll KI für klassifizierte Militärnetzwerke liefern. Bemerkenswert: Der neue Vertrag enthält laut Altman dieselben Sicherheitsprinzipien, die zum Streit mit Anthropic führten – inklusive Verbot von Massenüberwachung und der Forderung nach menschlicher Verantwortung.

Anzeige

Nicht nur in den USA, auch in Europa definieren neue Regeln den rechtlichen Rahmen für den Einsatz von KI-Systemen. Mit diesem kompakten Umsetzungsleitfaden erfahren Sie verständlich, welche Dokumentationspflichten und Risikoklassen die EU-KI-Verordnung für Ihr Unternehmen vorsieht. EU-KI-Verordnung kompakt: Jetzt Gratis-Leitfaden sichern

Dies deutet darauf hin, dass es nicht nur um die ethischen Grenzen ging, sondern auch um den Autoritätsanspruch der Regierung gegenüber Technologie-Lieferanten. Mitarbeiter von OpenAI und Google solidarisierten sich dennoch in einem offenen Brief mit Anthropic.

Was kommt jetzt auf die USA zu?

Für Behörden wie CIA und NSA, die Claude angeblich für Geheimdienstanalysen nutzen, beginnt nun eine komplexe Übergangsphase. Der Ausstieg innerhalb von sechs Monaten könnte laufende Operationen stören, die sich auf das KI-Modell verlassen.

Der angekündigte Rechtsstreit von Anthropic wird als Präzedenzfall für die Rechte und Pflichten von Technologieunternehmen in der nationalen Sicherheit beobachtet. Das Pentagon könnte Lücken künftig mit Anbietern wie Elon Musks xAI schließen. Die langfristigen Folgen dieser Konfrontation werden das Spannungsfeld zwischen Innovation, Ethik und Verteidigung noch Jahre prägen.

Hol dir den Wissensvorsprung der Aktien-Profis.

Hol dir den Wissensvorsprung der Aktien-Profis.

Seit 2005 liefert der Börsenbrief trading-notes verlässliche Aktien-Empfehlungen - Dreimal die Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt kostenlos anmelden
Jetzt abonnieren.

boerse | 68623551 |