Pentagon, KI-Firma

Pentagon zwingt KI-Firma Anthropic in Ultimatum

25.02.2026 - 22:39:32 | boerse-global.de

Das Pentagon stellt Anthropic ein Ultimatum zur Freigabe des KI-Modells Claude für militärische Zwecke. Bei Verweigerung drohen Vertragsstornierung und Ausschluss von Staatsaufträgen.

Die US-Regierung fordert die Aufhebung von Sicherheitsbeschränkungen für Militäreinsätze bis Ende dieser Woche – andernfalls drohen Vertragsstornierung und Ausschluss von Staatsaufträgen.

Ein fundamentaler Konflikt zwischen militärischen Zielen und unternehmerischer KI-Ethik eskaliert diese Woche. Das US-Verteidigungsministerium hat der KI-Forschungsfirma Anthropic ein striktes Ultimatum gestellt: Bis Freitag müssen sämtliche Sicherheitsbeschränkungen für militärische Anwendungen des Sprachmodells Claude fallen. Im Zentrum des Streits steht die Frage, inwieweit das Militär die fortschrittliche KI für Gefechtsfeldoperationen und Aufklärung nutzen darf. Die Frist läuft am Freitag, dem 27. Februar, ab.

Anzeige

Der aktuelle Konflikt um militärische KI-Einsätze verdeutlicht, wie schnell technologische Entwicklungen neue regulatorische Rahmenbedingungen erfordern. Dieser kostenlose Leitfaden erklärt Ihnen kompakt die wichtigsten Anforderungen und Fristen der neuen EU-KI-Verordnung. EU-KI-Verordnung kompakt: Jetzt Gratis-E-Book sichern

Drohungen mit Notstandsgesetz und Vertragsausschluss

Verteidigungsminister Pete Hegseth forderte Anthropic-CEO Dario Amodei bei einem Krisentreffen im Pentagon auf, uneingeschränkten Militärzugang zu gewähren. Das Ministerium argumentiert, operative Einsätze benötigten Werkzeuge ohne unternehmensinterne Limitierungen.

Die Konsequenzen bei Weigerung sind drastisch: Der Pentagon will einen 200-Millionen-Euro-Vertrag aus Juli 2025 stornieren. Zudem droht die Einstufung als Lieferkettenrisiko, was Anthropic von allen US-Regierungsaufträgen ausschließen würde. Als ungewöhnliche Maßnahme wird sogar die Anwendung des Defense Production Act erwogen – ein Notstandsgesetz aus dem Kalten Krieg, das die Herausgabe der Technologie erzwingen könnte.

Autonome Waffen und Massenüberwachung als rote Linien

Anthropic verweigert sich zwei konkreten Anwendungen: vollautonomen Waffensystemen ohne menschliche Entscheidungsbefugnis und der Massenüberwachung von Bürgern. Das von Ex-OpenAI-Forschern gegründete Unternehmen betont seine Sicherheitsprinzipien.

„Unsere Sprachmodelle sind nicht frei von Halluzinationen“, argumentiert Anthropic. „Sie sind für potenziell tödliche Militäroperationen ohne menschliche Aufsicht nicht verlässlich genug.“ CEO Amodei warnte kürzlich öffentlich vor den Gefahren KI-gestützter Überwachung und vollautomatisierter Kampfdrohnen für demokratische Schutzmechanismen.

Anzeige

Während Regierungen über den Einsatz von KI debattieren, müssen Unternehmen bereits heute neue gesetzliche Sicherheitsstandards erfüllen. Erfahren Sie in diesem Experten-Report, wie Sie Ihre IT-Strategie an die aktuellen Cyber-Security-Trends und KI-Gesetze anpassen. Kostenlosen Cyber Security Report für 2024 herunterladen

Konkurrenten kooperieren, Anthropic steht allein

Anders als Anthropic zeigen sich andere KI-Labore kooperationsbereit. Google, OpenAI und Elon Musks xAI verhandeln laut Pentagon über militärische Nutzung – teils auch für geheime Anwendungen. xAIs Chatbot Grok ist bereits für klassifizierte Umgebungen freigegeben.

Die Spannungen verschärften sich nach einem konkreten Einsatz Anfang 2026: Das US-Militär nutzte Claude gemeinsam mit Software des Rüstungsunternehmens Palantir bei einer Geheimdienstoperation zur Gefangennahme des venezolanischen Ex-Staatschefs Nicolás Maduro. Dieser Einsatz löste interne Debatten bei Anthropic über die Einhaltung der eigenen Sicherheitsrichtlinien aus.

Paradigmenwechsel für die gesamte Tech-Branche

Rechtsexperten warnen vor einem Präzedenzfall: Würde der Defense Production Act tatsächlich zur Beschlagnahmung eines kommerziellen KI-Modells genutzt, signalisierte dies der gesamten Technologiebranche, dass die Regierung Unternehmensethik bei Sicherheitsinteressen außer Kraft setzen kann.

„Es geht um die grundsätzliche Frage, wer über den KI-Einsatz im Krieg entscheidet“, analysieren Branchenbeobachter. Der Konflikt verdeutlicht die wachsende Kluft zwischen sicherheitsorientierten Tech-Firmen und den operativen Prioritäten von Militärbehörden.

Reputation versus Regierungsaufträge

Bis Freitag muss Anthropic eine folgenschwere Entscheidung treffen: Hält das Unternehmen an seinen ethischen Grundsätzen fest, riskiert es den Verlust lukrativer Staatsaufträge und seine finanzielle Stabilität. Gibt es nach, könnte sein Ruf als führender sicherheitsbewusster KI-Entwickler nachhaltig beschädigt werden.

Der Ausgang des Ultimatums wird wegweisend sein für den Umgang demokratischer Staaten mit autonomer Kriegstechnologie. Unabhängig vom Ergebnis dürfte der Konflikt politische Forderungen nach stärkerer parlamentischer Kontrolle militärischer KI-Projekte beschleunigen.

Hol dir jetzt den Wissensvorsprung der Aktien-Profis.

 Hol dir jetzt den Wissensvorsprung der Aktien-Profis.

Seit 2005 liefert der Börsenbrief trading-notes verlässliche Aktien-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr.
Jetzt abonnieren.

boerse | 68612263 |