Microsoft unterstützt KI-Startup Anthropic im Streit mit Pentagon
12.03.2026 - 00:00:19 | boerse-global.deMicrosoft stellt sich gegen das US-Verteidigungsministerium und unterstützt das KI-Startup Anthropic vor Gericht. Der Tech-Riese warnt vor schweren wirtschaftlichen Folgen und fordert einen Stopp der Einstufung als Sicherheitsrisiko.
Tech-Riese warnt vor wirtschaftlichen Schäden
In einer am Dienstag eingereichten Amicus-Curiae-Stellungnahme drängt Microsoft einen Bundesrichter in San Francisco, die umstrittene Einstufung von Anthropic als nationales Sicherheitsrisiko vorläufig auszusetzen. Das Pentagon hatte das Startup auf eine schwarze Liste gesetzt, nachdem es sich weigerte, ethische Sicherheitsvorkehrungen aufzuweichen. Diese verhindern den Einsatz seiner KI-Modelle für Massenüberwachung im Inland oder vollautonome Waffensysteme.
Der rechtliche Rahmen für künstliche Intelligenz wandelt sich rasant, wie die aktuelle EU-KI-Verordnung verdeutlicht. Dieser kostenlose Leitfaden erklärt verständlich, welche neuen Pflichten und Risikoklassen nun auch für Ihr Unternehmen gelten. EU-KI-Verordnung kompakt: Jetzt Gratis-Leitfaden sichern
Microsoft, selbst ein milliardenschwerer Regierungsauftragnehmer und Hauptinvestor von Anthropic, warnt vor sofortigen Störungen für laufende Militäroperationen. Vertragsnehmer müssten bestehende Produktkonfigurationen kurzfristig ändern. Neben Microsoft unterstützen auch 22 ehemalige US-Militärführer die Forderung nach einer einstweiligen Verfügung.
Ethische rote Linien gegen uneingeschränkten Zugriff
Der Konflikt eskalierte, nachdem Vertragsverhandlungen zwischen Anthropic und dem Pentagon gescheitert waren. Das Verteidigungsministerium bestand auf Klauseln, die den Einsatz der KI-Technologie für „alle rechtmäßigen Zwecke“ erlauben. Anthropic lehnte dies ab und beharrt auf zwei strikten roten Linien: ein absolutes Verbot für den Einsatz zur heimischen Massenüberwachung und für den Betrieb tödllicher Waffen ohne menschliche Freigabe.
Microsoft unterstützt diese ethischen Grenzen ausdrücklich. Das Unternehmen argumentiert, amerikanische KI müsse im Kampf unter menschlicher Kontrolle bleiben und dürfe nie für Spionage im Inland genutzt werden. Das Pentagon folgt damit einer Strategie vom Januar 2026, die uneingeschränkte Nutzungsklauseln in allen Verträgen vorschreibt – ein klares Zeichen für den beschleunigten Griff nach technologischer Dominanz.
Klagen und Vergeltungsvorwürfe
Bereits am Montag hatte Anthropic selbst zwei Klagen gegen die US-Regierung eingereicht. Das Unternehmen wirft dem Verteidigungsministerium illegale Vergeltung vor, weil es an seinen Sicherheitsrichtlinien festhält. Als in den USA ansässiges Unternehmen ohne Verbindungen zu ausländischen Gegnern erfülle es nicht die Kriterien für eine Bedrohung der nationalen Sicherheit.
Dennoch ordnete ein interner Pentagon-Vermerk an, alle Anthropic-Produkte innerhalb von 180 Tagen aus kritischen Systemen zu entfernen – darunter auch aus der Raketenabwehr und Cyberkriegs-Netzwerken. Anthropic entgegnet, dass seine Modelle in jüngsten Auslandseinsätzen bereits erfolgreich und ohne Vorfälle genutzt wurden.
Während globale Akteure über Sicherheitsrichtlinien streiten, müssen Unternehmen hierzulande ihre IT-Infrastruktur gegen ganz reale Bedrohungen absichern. Erfahren Sie in diesem Experten-Report, wie Sie Ihre Cyber-Security ohne Budget-Explosion auf den neuesten Stand bringen. Effektive Strategien gegen Cyberkriminalität kostenlos herunterladen
Branche vor strukturellem Governance-Dilemma
Der Streit offenbart ein grundlegendes Problem: In Ermangelung umfassender Bundesgesetze regulierten sich Technologieunternehmen bisher selbst. Jetzt prallen diese internen Nutzungsrichtlinien auf nationale Sicherheitsinteressen. Analysten schätzen, dass die Schwarze Liste Anthropic ab 2026 Milliarden an potenziellen Staatseinnahmen kosten könnte.
Jeder Verteidigungsauftragnehmer, der Anthropics Technologie nutzt, muss sie nun aus seinen Angeboten entfernen. Berichten zufolge beschleunigt das Pentagon bereits die Verlagerung von Aufgaben zu Konkurrenten wie OpenAI und Google. Einige Behörden haben angeblich bereits mit dem Austausch der Modelle begonnen.
Präzedenzfall für die Zukunft militärischer KI
Die Entscheidung liegt nun beim Bundesgericht in Kalifornien. Wird die einstweilige Verfügung abgelehnt, stehen Verteidigungsunternehmen vor einer gewaltigen logistischen Herausforderung: Sie hätten nur Monate Zeit, Anthropics Architektur aus geheimen Netzwerken zu entfernen.
Fällt das Urteil zugunsten des Startups aus, müsste das Pentagon seine aggressive Beschaffungsstrategie überdenken und Grenzen für den Einsatz kommerzieller KI-Modelle akzeptieren. Die Entscheidung wird einen maßgeblichen Präzedenzfall schaffen – für die Frage, wie ethische KI-Sicherheitsvorkehrungen zwischen Silicon Valley und dem Militär künftig verhandelt werden.
Hol dir jetzt den Wissensvorsprung der Aktien-Profis.
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Aktien-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
Für. Immer. Kostenlos.

