Anthropic: US-Regierung verbietet KI-Firma nach Ethik-Streit
03.03.2026 - 23:41:15 | boerse-global.deEin beispielloser Konflikt zwischen Tech-Industrie und Staat eskaliert: Das KI-Unternehmen Anthropic weigert sich, ethische Schutzvorkehrungen für Militäreinsätze zu entfernen. Die Antwort der US-Regierung ist ein flächendeckendes Nutzungsverbot und die Einstufung als Sicherheitsrisiko – eine Maßnahme, die bisher ausländischen Gegnern vorbehalten war.
Regierung verhängt Totalverbot nach gescheiterten Verhandlungen
Der Streit entzündete sich an zwei ethischen „roten Linien“ des Unternehmens: einem Verbot des Einsatzes für Massenüberwachung im Inland und einem Bann für die Integration in vollautonome Waffensysteme ohne menschliche Kontrolle. Nach monatelangen, ergebnislosen Gesprächen mit dem US-Kriegsministerium lehnte Anthropic-CEO Dario Amodei die Forderung nach einer Nutzung für „jeden legalen Zweck“ Ende Februar öffentlich ab. Die Regierung unter Präsident Donald Trump reagierte umgehend.
Während in den USA ethische Leitplanken politisch debattiert werden, schafft die EU mit dem AI Act bereits klare Fakten für die Wirtschaft. Wie Sie Ihr Unternehmen auf die neuen Anforderungen vorbereiten, erfahren Sie in diesem kostenlosen E-Book. EU-KI-Verordnung kompakt: Jetzt Gratis-Leitfaden sichern
Noch am Freitag ordnete Trump den Ausstieg aller Bundesbehörden aus Anthropics Technologie binnen sechs Monaten an. Kriegsminister Pete Hegseth stufte das Unternehmen als „Risiko für die Lieferkette“ ein. Diese Kennzeichnung kann Geschäfte von Militärzulieferern mit der KI-Firma blockieren. Das Finanzministerium bestätigte bereits die Abschaltung von Anthropics KI-Plattform Claude.
Ethik vs. nationale Sicherheit: Ein grundsätzlicher Konflikt
Anthropic begründet seine Haltung mit den unkalkulierbaren Risiken heutiger KI für den Einsatz in vollautonomen Waffen. Zwar unterstütze man die Nutzung für legitime Zwecke der nationalen Sicherheit, die Massenüberwachung eigener Bürger widerspreche jedoch demokratischen Werten.
Das Kriegsministerium beharrt dagegen auf uneingeschränkt nutzbarer Technologie. Man habe keine Pläne für Massenüberwachung oder „Killer-Roboter“, könne aber nicht zulassen, dass ein Privatunternehmen operativen Entscheidungsspielraum der Streitkräfte einschränke. Die Gespräche scheiterten, weil Anthropic in den Kompromissvorschlägen der Regierung rechtliche Schlupflöcher sah, die die Schutzvorkehrungen aushebeln würden.
OpenAI springt ein – unter Auflagen
Während der Konflikt mit Anthropic eskalierte, verkündete der Konkurrent OpenAI eine Einigung mit dem US-Verteidigungsministerium. Dessen KI-Modelle sollen in klassifizierten Militärnetzen zum Einsatz kommen. Berichten zufolge enthält der Deal ähnliche Schutzklauseln, wie sie Anthropic forderte: ein Verbot heimischer Massenüberwachung und die Pflicht zur menschlichen Kontrolle bei Gewalteinsätzen.
Diese parallele Entwicklung wirft Fragen auf: War die Regierung nur nicht bereit, die spezifischen Bedingungen von Anthropic zu akzeptieren? Hunderte Mitarbeiter von Google und OpenAI unterzeichneten indes einen offenen Brief, der ihre Firmen auffordert, sich gegen Regierungsforderungen für Überwachungs- und autonome Kampf-KI zu stellen.
Neben ethischen Fragen rücken durch den verstärkten KI-Einsatz auch neue Sicherheitsrisiken und gesetzliche Vorgaben in den Fokus von Geschäftsführern. Dieser Experten-Report zeigt auf, welche neuen Gesetze und Cyber-Bedrohungen Sie 2024 unbedingt kennen sollten. Kostenloses E-Book zu Cyber Security & KI-Regulierung herunterladen
Unklare Zukunft und ein brisantes Detail
Die nächsten Schritte sind juristischer Natur. Anthropic kündigte an, die Einstufung als Sicherheitsrisiko vor Gericht anzufechten. Die Regierung steht vor der logistischen Herausforderung, die tief in kritischen Anwendungen – von Geheimdienstanalsyen bis zur Operationsplanung – verankerte Technologie zu ersetzen.
Ein brisantes Detail unterstreicht diese Verflechtung: Trotz des angekündigten Verbots soll das US-Militär das Claude-Modell von Anthropic noch am vergangenen Wochenende bei einem Angriff auf den Iran genutzt haben. Dies zeigt die praktischen Schwierigkeiten eines sofortigen Ausstiegs.
Der Ausgang dieses Machtkampfes wird einen Präzedenzfall für das Verhältnis zwischen Silicon Valley und dem nationalen Sicherheitsapparat setzen. Es geht um die grundlegende Frage: Wer kontrolliert die mächtigsten KI-Systeme – und welche ethischen Leitplanken sind in Zeiten rasanter technologischer Entwicklung nicht verhandelbar?
Hol dir jetzt den Wissensvorsprung der Aktien-Profis.
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Aktien-Empfehlungen - Dreimal die Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt kostenlos anmelden
Jetzt abonnieren.

