Anthropic, US-Regierung

Anthropic: US-Regierung stempelt KI-Pionier zur Sicherheitsgefahr ab

07.03.2026 - 10:10:55 | boerse-global.de

Die US-Regierung erklärt Anthropic zum nationalen Sicherheitsrisiko, nachdem das Unternehmen sich weigerte, ethische Sperren für militärische KI-Nutzung zu lockern. Ein historischer Rechtsstreit beginnt.

Anthropic: US-Regierung stempelt KI-Pionier zur Sicherheitsgefahr ab - Foto: über boerse-global.de
Anthropic: US-Regierung stempelt KI-Pionier zur Sicherheitsgefahr ab - Foto: über boerse-global.de

Die US-Regierung hat den KI-Entwickler Anthropic offiziell zum Risiko für die nationale Sicherheit erklärt. Der historische Schritt folgt einem erbitterten Streit über den Einsatz von Künstlicher Intelligenz im Militär.

Am 4. März 2026 erreichte der Konflikt zwischen Silicon Valley und dem Pentagon seinen vorläufigen Höhepunkt. Das US-Verteidigungsministerium klassifizierte das KI-Unternehmen Anthropic als Bedrohung für die militärische Lieferkette. Der Grund: Das Unternehmen weigerte sich, ethische Sperren in seinen Nutzungsbedingungen zu entfernen. Diese verbieten es, das KI-Modell Claude für vollautonome Waffensysteme oder Massenüberwachung im Inland einzusetzen. Anthropic kündigte umgehend an, gegen die Entscheidung vor Gericht zu ziehen. Dieser Präzedenzfall stellt die Frage: Können Privatfirmen dem Militär operative Grenzen vorgeben?

Anzeige

Seit August 2024 gelten in der EU bereits strenge Regeln für den Einsatz von Künstlicher Intelligenz, um Risiken frühzeitig zu minimieren. Dieser kostenlose Leitfaden erklärt Ihnen kompakt die Anforderungen der neuen KI-Verordnung und welche Pflichten für Ihr Unternehmen gelten. EU-KI-Verordnung kompakt: Jetzt kostenlos herunterladen

Ethische rote Linien gegen militärische Forderungen

Im Kern geht es um die ethischen Grenzen von KI im Krieg. Verteidigungsminister Pete Hegseth forderte von Anthropic, seine Vertragsbedingungen zu lockern. Das Militär sollte Claude für „alle rechtmäßigen Zwecke“ nutzen dürfen. Das Unternehmen blieb hart: Es lehnte es ab, Klauseln zu streichen, die den Einsatz für tödliche autonome Waffen und Massenüberwachung verbieten.

Das Pentagon argumentiert, private Technologieanbieter dürften dem Militär keine strengeren Restriktionen auferlegen als der US-Kongress. Nach gescheiterten Verhandlungen folgte die drastische Maßnahme. Juristen zeigen sich perplex: Die „Lieferkettenrisiko“-Einstufung war bisher ausländischen Gegnern vorbehalten, um Sabotage zu verhindern. Gegen ein amerikanisches Unternehmen eingesetzt, hat sie massive Folgen: Bundesbehörden und ihre Auftragnemer dürfen keine neuen Verträge mit Anthropic mehr schließen.

Finanzielle Einbußen und Konkurrenz profitiert

Die Retourkutsche trifft das Startup finanziell ins Mark. Anthropic befindet sich mitten in einer milliardenschweren Finanzierungsrunde, die das Unternehmen mit rund 60 Milliarden Euro bewerten sollte. Diese ist nun gefährdet. Ein bestehender Regierungsauftrag über 200 Millionen Euro wird gekündigt.

Konkurrent OpenAI sprang sofort in die Bresche. Innerhalb von Stunden nach der Entscheidung sicherte sich das Unternehmen einen umfassenden Vertrag für den Einsatz seiner KI in geheimen Militärnetzen. OpenAI betonte, sein Abkommen enthalte explizite Sicherheitsvorkehrungen gegen autonome Waffen. Interessanterweise äußerte das Unternehmen zugleich öffentlich Kritik an der Ächtung des Konkurrenten. Microsoft gab teilweise Entwarnung: Die Sperre gelte nur für direkte Verteidigungsaufträge. Für zivile Geschäftskunden bleibe der Zugang zu Anthropic-Tools über Plattformen wie Microsoft 365 und GitHub bestehen.

Logistisches Chaos für laufende Militäroperationen

Die KI aus laufenden Operationen zu entfernen, stellt das Militär vor ein gewaltiges logistisches Problem. Das Pentagon gewährte eine sechsmonatige Übergangsfrist – ein stillschweigendes Eingeständnis, wie tief die Technologie verwurzelt ist.

Das Claude-Modell ist Kernbestandteil des Maven Smart System von Palantir, einer zentralen Aufklärungsplattform. Das System wertet massenhaft geheime Satelliten- und Überwachungsdaten aus, schlägt Ziele vor und priorisiert Einsätze, unter anderem bei aktuellen Operationen im Nahen Osten. Soldaten haben hunderte Stunden in das Training des Modells investiert. Experten warnen: Ein abruptes Ersetzen des analytischen Kerns könnte die Echtzeit-Planung in Kampfzonen empfindlich stören und die Aufklärungsarbeit verlangsamen. Hier prallen Verwaltungsakt und Kriegsrealität aufeinander.

Anzeige

Der Einsatz moderner Technologien wie KI birgt neue Gefahren für die Cyber-Security, auf die viele Unternehmen bisher nicht vorbereitet sind. Erfahren Sie in diesem Experten-Report, wie Sie Ihre IT-Sicherheit effektiv stärken und sich gegen aktuelle Bedrohungen wappnen. Effektive Strategien für Cyber-Security entdecken

Fragwürdige Rechtsgrundlage und öffentliche Sympathie

Die beispiellose Maßnahme offenbart einen ideologischen Graben in der Frage, wie KI ethisch in Hochrisiko-Umgebungen eingesetzt werden soll. Ehemalige Militärtechniker und Rechtsexperten bezweifeln die gesetzliche Grundlage. Das entsprechende Gesetz sei für den Schutz vor ausländischer Spionage gedacht, nicht zur Bestrafung inländischer Firmen für strenge Nutzungsbedingungen.

Forscher für autonome Systeme bestätigen die technische Vorsicht von Anthropic. Aktuelle KI-Modelle neigten noch zu Halluzinationen und Fehlern. Ihr Einsatz für lebens- und todeswichtige Zielentscheidungen ohne robuste menschliche Kontrolle sei unzuverlässig und könne zu unbeabsichtigten Opfern führen. Die Öffentlichkeit scheint diese Haltung zu honorieren: Nach Bekanntwerden des Disputs schnellte die Nachfrage nach der Anthropic-App in die Höhe. Sie überholte erstmals die Apps der Hauptkonkurrenten in den US-Download-Charts.

Was der Ausgang des Rechtsstreits bedeutet

Der bevorstehende Gerichtsprozess wird wegweisend für die gesamte KI-Branche sein. Die Bundesgerichte müssen klären, ob das Verteidigungsministerium seine Befugnisse überschritt, indem es eine nationale Sicherheitsklassifizierung als Waffe in einem Vertragsstreit einsetzte.

Gleichzeitig steht das Militär vor der technischen Herkulesaufgabe, Claude aus hochklassifizierten Netzen zu entfernen und Ersatzmodelle zu integrieren – ohne die Einsatzbereitschaft zu gefährden. Für den Technologiesektor wird die Entscheidung die Zukunft des Verteidigungsgeschäfts prägen. KI-Startups werden das Urteil genau verfolgen. Es könnte sie zwingen, sich endgültig zu entscheiden: lukrative Regierungsaufträge oder strikte Unternehmensethik gegen autonome Kriegsführung.

Hol dir jetzt den Wissensvorsprung der Aktien-Profis.

 <b>Hol dir jetzt den Wissensvorsprung der Aktien-Profis.</b>

Seit 2005 liefert der Börsenbrief trading-notes verlässliche Aktien-Empfehlungen - Dreimal die Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt kostenlos anmelden
Jetzt abonnieren.

boerse | 68644602 |