Anthropic, USA

Anthropic: USA kappen Verbindungen zu KI-Startup nach Ethik-Streit

01.03.2026 - 10:19:14 | boerse-global.de

Die US-Regierung hat alle Verträge mit Anthropic gekündigt und das Unternehmen als Sicherheitsrisiko eingestuft, nachdem es militärische Nutzungsauflagen abgelehnt hat.

Die US-Regierung hat alle Beziehungen zum KI-Entwickler Anthropic abgebrochen. Grund ist ein unüberbrückbarer Konflikt über ethische Grenzen beim militärischen Einsatz Künstlicher Intelligenz.

Am Freitag ordnete Präsident Donald Trump an, dass alle Bundesbehörden die Technologie des Unternehmens sofort nicht mehr nutzen dürfen. Verteidigungsminister Pete Hegseth stufte das Startup aus San Francisco zudem als Risiko für die nationale Sicherheit ein. Diese beispiellosen Maßnahmen beenden eine lukrative Partnerschaft und eskalieren den Machtkampf zwischen Silicon Valley und Washington.

Anzeige

Der aktuelle Fall zeigt, wie schnell neue Regulierungen und Sicherheitsbewertungen die technologische Landschaft verändern können. Dieser kostenlose Leitfaden erklärt kompakt die Anforderungen der neuen EU-KI-Verordnung, damit Ihr Unternehmen bei Compliance und Dokumentation stets rechtssicher aufgestellt ist. EU-KI-Verordnung kompakt: Jetzt Gratis-Leitfaden sichern

Bruch nach Ultimatum des Pentagons

Der Konflikt entzündete sich an den strengen Sicherheitsvorkehrungen von Anthropic. Das Pentagon forderte das Unternehmen auf, interne „Sicherheits-Schranken“ für seine KI-Modelle der „Claude“-Reihe zu entfernen. Die Militärs wollten die Technologie ohne herstellerseitige Einschränkungen nutzen.

Anthropic, geführt von CEO Dario Amodei, lehnte dies ab. Das Unternehmen beharrte auf seinen ethischen Grundsätzen: Seine Software dürfe nie für Massenüberwachung US-amerikanischer Bürger oder für vollautonome Waffensysteme ohne menschliche Kontrolle eingesetzt werden. Diese Haltung war nicht verhandelbar.

Nach monatelangen angespannten Gesprächen stellte das Verteidigungsministerium Ende Februar ein Ultimatum: Anthropic sollte bis Freitagnachmittag nachgeben. Als das Startup seine Prinzipien nicht opferte, zog die Regierung sofort die Notbremse und kündigte alle Verträge.

Harte Sanktionen isolieren Startup

Die Strafmaßnahmen sind extrem. Nicht nur sind direkte Regierungsaufträge gestrichen. Die Einstufung als Lieferkettenrisiko hat weitreichendere Folgen. Diese Kennzeichnung ist für ein US-Unternehmen äußerst selten und trifft normalerweise ausländische Konkurrenten.

Praktisch bedeutet das: Jeder Zulieferer oder Partner, der Geschäfte mit dem US-Militär macht, darf nicht mehr mit Anthropic zusammenarbeiten. Da das Verteidigungsministerium ein riesiges Netzwerk an Vertragspartnern hat, droht dem Startup die Isolation von einem großen Teil des amerikanischen Marktes. Firmen müssen sich entscheiden: lukrative Militäraufträge oder Zugang zu Anthropics KI-Modellen.

Die Bundesbehörden haben sechs Monate Zeit, um die Claude-Modelle aus ihren Systemen zu entfernen. Das Pentagon muss Ersatz finden – und das schnell.

Anzeige

Während staatliche Akteure über Sicherheitsvorgaben streiten, stehen Unternehmen vor der Herausforderung, ihre IT-Infrastruktur gegen reale Bedrohungen abzusichern. Erfahren Sie in diesem Experten-Report, wie Sie Ihre Cyber-Security mit effektiven Strategien stärken, ohne Ihr Budget zu sprengen. Kostenlosen Cyber-Security-Report herunterladen

Anthropic wehrt sich vor Gericht

Das Startup kündigte umgehend an, gegen die Einstufung als Sicherheitsrisiko vor Bundesgericht zu klagen. Die Maßnahme sei rechtlich fragwürdig und setze einen gefährlichen Präzedenzfall, so das Unternehmen. Die Regierung habe nicht die Befugnis, die Geschäftsbeziehungen ihrer Vertragspartner derart zu diktieren.

Anthropic verteidigt seine Haltung öffentlich. Sicherheitsrichtlinien des Herstellers seien branchenüblich und notwendig, um den Missbrauch immer mächtigerer KI zu verhindern. Lokale Politiker in San Francisco unterstützen das Unternehmen und betonen das Recht von Tech-Firmen auf eigene ethische Grundsätze.

Der Streit verändert bereits die KI-Landschaft. Konkurrent OpenAI schloss kurz nach dem Bann gegen Anthropic einen neuen Vertrag mit dem Pentagon ab. Die genauen Bedingungen sind unbekannt. Kritiker befürchten: Die harte Linie der Regierung bestraft safety-bewusste Entwickler und belohnt jene, die ihre Ethik an militärische Forderungen anpassen.

Was kommt jetzt?

Die nächsten sechs Monate werden entscheidend. Das Militär steht vor der logistischen Herausforderung, eine tief integrierte KI-Technologie aus seinen geheimen Netzwerken zu entfernen, ohne laufende Operationen zu stören. Der Wechsel wird zeigen, ob andere Anbieter für hochsensible Regierungssysteme bereit sind.

Parallel rollt eine rechtliche Grundsatzdebatte an. Die Gerichte müssen klären, wie weit die Macht der Exekutive über heimische Lieferketten reicht. Diskutiert wird sogar die Anwendung des Defense Production Act – ein Gesetz aus der Zeit des Kalten Krieges, das die Regierung theoretisch ermächtigen könnte, Anthropic zur Anpassung seiner Modelle zu zwingen.

Die Trennung markiert einen Wendepunkt für die Militarisierung Künstlicher Intelligenz. Sie zeigt den grundlegenden Konflikt zwischen den Sicherheitsvorgaben des Silicon Valley und dem militärischen Bedürfnis nach absoluter Handlungsfreiheit. Wie dieser Konflikt ausgeht, wird die Beziehung zwischen Tech-Branche und US-Regierung auf Jahre prägen.

Hol dir den Wissensvorsprung der Aktien-Profis.

Hol dir den Wissensvorsprung der Aktien-Profis.

Seit 2005 liefert der Börsenbrief trading-notes verlässliche Aktien-Empfehlungen - Dreimal die Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt kostenlos anmelden
Jetzt abonnieren.

boerse | 68623971 |