Anthropic: US-Regierung stoppt Militär-Deal wegen ethischer Bedenken
02.03.2026 - 11:01:14 | boerse-global.deDie US-Regierung hat den KI-Riesen Anthropic zur „Risikofirma“ erklärt und seine Technologie aus Militärsystemen verbannt. Grund ist ein Streit über ethische Grenzen für KI im Verteidigungsbereich. Gleichzeitig sichert sich der Konkurrent OpenAI einen umfassenden Vertrag mit dem Pentagon.
Washington D.C. – In einem beispiellosen Schritt hat die Trump-Administration alle Bundesbehörden angewiesen, die Technologie des KI-Unternehmens Anthropic nicht mehr zu nutzen. Das Verteidigungsministerium stufte den Hersteller des KI-Modells Claude offiziell als „Lieferkettenrisiko“ ein. Der Bruch folgt auf gescheiterte Verhandlungen über den militärischen Einsatz der KI. Parallel dazu gab der Konkurrent OpenAI bekannt, einen Vertrag zur Nutzung seiner Modelle in den geheimen Netzwerken des Pentagons unterzeichnet zu haben.
Während Regierungen über ethische Grenzen streiten, schafft die neue EU-KI-Verordnung bereits klare Fakten für hiesige Unternehmen. Dieser kostenlose Leitfaden erklärt kompakt, welche Kennzeichnungspflichten und Risikoklassen ab sofort für Sie relevant sind. EU-KI-Verordnung kompakt: Jetzt Gratis-Leitfaden sichern
Vertragliche „Rote Linien“ als Zankapfel
Im Kern des Konflikts steht eine grundsätzliche Frage: Wer setzt die ethischen Grenzen für militärisch nutzbare KI? Anthropic, das sich mit einem „Safety-First“-Ansatz und seiner „Constitutional AI“-Methode profiliert, bestand auf vertragliche Ausschlüsse. Das Unternehmen wollte den Einsatz seiner KI für Massenüberwachung im Inland und für vollautonome Waffensysteme ohne menschliche Kontrolle explizit verbieten lassen.
„Wir konnten mit bestem Gewissen keine Lizenz für alle ‚gesetzlichen Zwecke‘ unterschreiben“, erklärte CEO Dario Amodei. Die aktuellen Gesetze hätten mit den rasanten Fähigkeiten der KI, besonders im Bereich der Überwachung, nicht Schritt gehalten. Das Pentagon wies die Forderungen zurück. Bestehende Gesetze und interne Richtlinien würden solche Aktivitäten bereits ausreichend regeln, argumentierten Beamte. Man brauche die Flexibilität, KI für jeden rechtmäßigen Zweck einzusetzen. Nach monatelangem Stillstand zog die Regierung die Notbremse und verhängte das Nutzungsverbot. Anthropic hat nun sechs Monate Zeit, seine Technologie aus Militärsystemen zu entfernen.
OpenAI setzt auf technische statt vertragliche Barrieren
Nur Stunden nach der öffentlichen Zuspitzung des Streits präsentierte OpenAI seine eigene Lösung. Der KI-Pionier bestätigte einen Vertrag mit dem Pentagon, der ähnliche „rote Linien“ zieht. Der Ansatz ist jedoch ein anderer: Statt auf vertragliche Klauseln setzt OpenAI auf ein „mehrschichtiges Sicherheitskonzept“.
Die Modelle sollen ausschließlich über die OpenAI-Cloud bereitgestellt werden, wo das Unternehmen die Kontrolle über die Sicherheitssysteme behält. Zudem sollen freigegebene OpenAI-Mitarbeiter in die Aufsichtsprozesse eingebunden sein. Diese technische Architektur biete robustere und durchsetzbare Schutzvorkehrungen als ein reiner Vertragstext, so das Unternehmen. In einer Stellungnahme forderte OpenAI die Regierung auf, anderen KI-Laboren ähnliche Konditionen anzubieten und den Konflikt mit Anthropic beizulegen.
Der technologische Wandel bringt nicht nur neue Möglichkeiten, sondern auch verschärfte gesetzliche Anforderungen an die IT-Sicherheit mit sich. Was Geschäftsführer heute über Cyber Security und die aktuelle KI-Regulierung wissen müssen, erfahren Sie in diesem Experten-Report. Kostenloses E-Book zu Cyber-Security-Trends herunterladen
Paradigmenwechsel für KI und nationale Sicherheit
Die Ereignisse markieren einen Wendepunkt für die Zusammenarbeit zwischen Tech-Riesen und dem Staat. Das Pentagon treibt die KI-Integration aggressiv voran; über eine Million Mitarbeiter nutzen bereits KI in ihrer täglichen Arbeit. Der öffentliche Disput hat die Branche aufgerüttelt und zwingt KI-Firmen, ihren Weg zwischen Sicherheitsinteressen und ethischen Grundsätzen zu finden.
Interessanterweise verzeichnete Anthropic trotz der politischen Niederlage einen kurzfristigen Popularitätsschub. Sein KI-Modell Claude überholte am vergangenen Wochenende kurzzeitig ChatGPT als meistheruntergeladene App in den USA. Die unterschiedlichen Verhandlungsstrategien von Anthropic and OpenAI werden wahrscheinlich einen Präzedenzfall für die Zukunft setzen. Sie bestimmen mit, wie leistungsstarke KI in hochsensiblen staatlichen und militärischen Bereichen künftig entwickelt, kontrolliert und eingesetzt wird.
Hol dir den Wissensvorsprung der Aktien-Profis.
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Aktien-Empfehlungen - Dreimal die Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt kostenlos anmelden
Jetzt abonnieren.


