Anthropic, US-Regierung

Anthropic verklagt US-Regierung wegen Militär-KI-Streits

10.03.2026 - 01:18:20 | boerse-global.de

Das KI-Unternehmen Anthropic wehrt sich gerichtlich gegen eine Einstufung als Sicherheitsrisiko, die auf seine Weigerung zurückgeht, KI für autonome Waffen oder Massenüberwachung einzusetzen.

Anthropic verklagt US-Regierung wegen Militär-KI-Streits - Foto: über boerse-global.de
Anthropic verklagt US-Regierung wegen Militär-KI-Streits - Foto: über boerse-global.de

KI-Pionier Anthropic zieht gegen eine Einstufung als Sicherheitsrisiko vor Gericht. Der Konflikt entzündete sich an der Weigerung des Unternehmens, seine KI für tödliche autonome Waffen oder Massenüberwachung einzusetzen.

Anzeige

Seit August 2024 gelten in der EU neue Spielregeln für den Einsatz künstlicher Intelligenz, die auch für US-Unternehmen und deren Partner wegweisend sind. Dieser kostenlose Leitfaden erklärt kompakt die wichtigsten Kennzeichnungspflichten und Risikoklassen der neuen KI-Verordnung. EU-KI-Verordnung: Jetzt kostenlosen Umsetzungsleitfaden sichern

Ungewöhnliche Klage gegen Sicherheitsstempel

Das KI-Unternehmen Anthropic hat die US-Regierung verklagt. Grund ist eine Entscheidung des Verteidigungsministeriums, das Unternehmen als Risiko für die nationale Sicherheitslieferkette einzustufen. Diese beispiellose Einstufung schließt das Start-up aus San Francisco faktisch von Bundesaufträgen aus. Die Klagen, eingereicht vor Bundesgerichten in Kalifornien und Washington D.C., zielen darauf ab, diese als „verfassungswidrig und vergeltend“ bezeichnete Maßnahme zu kippen.

Anthropic argumentiert, seine Verfassungsrechte würden verletzt. Die Regierung bestrafe das Unternehmen dafür, dass es an seinen ethischen Grundsätzen festhalte. Der „Supply Chain Risk“-Stempel, normalerweise ausländischen Gegnern vorbehalten, werde hier als Waffe in einem ideologischen Streit missbraucht. Das Unternehmen fordert die Gerichte auf, den Ausschluss von Bundesaufträgen zu stoppen und die Einstufung aufzuheben. Diese bedroht laut Anthropic Umsätze in Höhe von mehreren hundert Millionen Euro.

Ethische rote Linien als Zündstoff

Der Kern des Konflikts liegt in den Nutzungsbedingungen für Anthropics KI-Modell Claude. Das Unternehmen war zuvor ein führender Partner der Regierung. Sein „Claude Gov“-System war sogar das einzige, das in der geheimen Cloud-Infrastruktur des Pentagons zugelassen war.

Doch in Vertragsverhandlungen eskalierte der Streit. Das Verteidigungsministerium forderte, die spezifischen Nutzungsbeschränkungen zu streichen. Anthropic sollte zustimmen, dass das Militär die KI für alle gesetzlich erlaubten Zwecke einsetzen darf. Unter CEO Dario Amodei lehnte das Unternehmen dies ab. Zwei rote Linien waren nicht verhandelbar: der Einsatz für vollautonome tödliche Waffensysteme und die Massenüberwachung amerikanischer Bürger.

Nach dieser Sackgasse schwenkte die Trump-Administration auf Konfrontationskurs. Präsident Donald Trump ordnete an, dass alle Bundesbehörden die Nutzung von Anthropic-Technologie innerhalb von sechs Monaten einstellen müssen.

Solidarität aus dem Tech-Sektor und Marktfolgen

Der Rechtsstreit sendet Schockwellen durch die gesamte Tech-Branche. In einer ungewöhnlichen Geste der Solidarität unterstützen Dutzende Ingenieure und Forscher von Konkurrenten wie OpenAI und Google Anthropic mit einer Stellungnahme vor Gericht. Auch Google-Chefwissenschaftler Jeff Dean gehört zu den Unterstützern. Dies unterstreicht die branchenweite Sorge vor den aggressiven Beschaffungspraktiken der Regierung.

Die finanziellen und operativen Auswirkungen auf Anthropic sind erheblich. Die Risikoeinstufung stoppt nicht nur direkte Verteidigungsaufträge. Sie sorgt auch bei gewerblichen Partnern, die selbst Bundesauftragnehmer sind, für Verunsicherung. Diese fragen sich, ob ihre Geschäftsbeziehung zu Anthropic ihre eigenen Regierungsverträge gefährdet. Anthropic versucht derzeit, seine Kunden zu beruhigen: Die Beschränkungen gelten demnach nur eng für Militärauftragnehmer, die Claude für Pentagon-Projekte nutzen.

Wasserscheide für KI und nationale Sicherheit

Analysten sehen in der Konfrontation einen Wendepunkt. Sie offenbart den grundlegenden Konflikt zwischen der sicherheitsorientierten Kultur des Silicon Valley und dem Bedarf des Verteidigungssektors nach uneingeschränkter technologischer Überlegenheit. Die Einstufung eines prominenten US-Tech-Unternehmens als Lieferkettenrisiko ist höchst unorthodox. Sie könnte einen abschreckenden Präzedenzfall schaffen.

Sollte die Einstufung bestehen bleiben, könnte sie andere Entwickler zwingen, eine Wahl zu treffen: zwischen ethischen Sicherheitsvorkehrungen und lukrativen Staatsaufträgen. Ein Sieg für Anthropic hingegen könnte die Macht privater Tech-Firmen festigen, die Nutzungsbedingungen ihrer Produkte im Krieg vorzugeben. Das würde die Beschaffungsdynamik zwischen Pentagon und Tech-Sektor grundlegend verändern.

Anzeige

Der Streit um nationale Sicherheit und Datenzugriffe verdeutlicht, wie kritisch der Schutz sensibler Informationen für moderne Unternehmen geworden ist. Erfahren Sie in diesem Experten-Report, wie Sie Ihre IT-Sicherheit proaktiv stärken und sich gegen aktuelle Bedrohungen wappnen. Cyber Security Strategien für Unternehmen kostenlos herunterladen

Ausblick auf einen Präzedenzfall

Die unmittelbare Aufmerksamkeit gilt nun möglichen einstweiligen Verfügungen, die die Risikoeinstufung vorläufig aussetzen könnten. Anthropic hat signalisiert, weiter zu Gesprächen mit der Regierung bereit zu sein. Verteidigungsbeamte erklärten jedoch, aktive Verhandlungen seien eingestellt.

In den kommenden sechs Monaten müssen Bundesbehörden die Claude-Systeme ersetzen – eine logistische Herausforderung. Das Endergebnis dieses Rechtsstreits wird grundlegend Regeln dafür setzen, wie fortschrittliche Künstliche Intelligenz im US-Militär künftig geregelt wird.

Hol dir jetzt den Wissensvorsprung der Aktien-Profis.

 <b>Hol dir jetzt den Wissensvorsprung der Aktien-Profis.</b>

Seit 2005 liefert der Börsenbrief trading-notes verlässliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt anmelden.
Für immer kostenlos

boerse | 68653860 |