Pentagon kündigt KI-Partner Anthropic nach Ethik-Konflikt
01.03.2026 - 01:18:44 | boerse-global.deDas US-Verteidigungsministerium hat den Vertrag mit dem KI-Unternehmen Anthropic gekündigt. Grund ist ein Streit über ethische Grenzen für Militär-KI. Die Bundesregierung stuft das Unternehmen nun als Sicherheitsrisiko ein – ein beispielloser Schritt gegen ein amerikanisches Tech-Unternehmen.
Ethik gegen nationale Sicherheit
Im Zentrum des Konflikts stehen zwei rote Linien, die Anthropic nicht überschreiten wollte: Sein KI-Modell Claude darf nicht für Massenüberwachung in den USA eingesetzt werden. Und es soll keine vollautonomen Waffensysteme steuern, die ohne menschliche Kontrolle Ziele auswählen. Das Pentagon forderte dagegen uneingeschränkten Zugang für „alle rechtmäßigen Zwecke“.
Während Regierungen und Tech-Giganten über ethische Leitplanken streiten, schafft die neue EU-KI-Verordnung bereits heute verbindliche Fakten für die Wirtschaft. Dieser kostenlose Leitfaden hilft Ihnen, die komplexen Anforderungen und Risikoklassen für Ihr Unternehmen rechtssicher zu verstehen. EU-KI-Verordnung kompakt: Jetzt Gratis-E-Book sichern
„Wir können mit bestem Gewissen diese Schutzmaßnahmen nicht entfernen“, erklärte Anthropic-CEO Dario Amodei noch vor der gesetzten Frist. Das Verteidigungsministerium argumentierte, die Einschränkungen seien unnötig, da bestehende Gesetze solche Anwendungen bereits verbieten. Entscheidend war jedoch die Vertragsklausel: Das Pentagon wollte sich nicht von einem Privatunternehmen vorschreiben lassen, wie es die Nation verteidigt.
Ultimatum und Eskalation
Der monatelange Konflikt eskalierte diese Woche öffentlich. Verteidigungsminister Pete Hegseth setzte eine Frist bis Freitagabend. Als Anthropic nicht einlenkte, ordnete Präsident Trump an, dass alle Bundesbehörden die Technologie „SOFORT“ einstellen müssen. Hegseth bezeichnete das Unternehmen als „selbstgerecht“.
Die Konsequenzen sind weitreichend: Der Vertrag im Wert von bis zu 200 Millionen Euro wurde gekündigt. Die Einstufung als „Lieferkettenrisiko“ – normalerweise ausländischen Firmen wie Huawei vorbehalten – bedeutet: Jeder Partner des US-Militärs muss seine Geschäftsbeziehungen zu Anthropic beenden.
Überraschende Wende bei OpenAI
Kurz nach der Entscheidung gab es eine überraschende Entwicklung: Der Konkurrent OpenAI schloss einen neuen Deal mit dem Pentagon für KI in geheimen Militärnetzwerken. Laut CEO Sam Altman enthält die Vereinbarung genau jene ethischen Grundsätze, die im Streit mit Anthropic scheiterten – darunter das Verbot von Massenüberwachung.
Die Botschaft ist klar: Das Pentagon akzeptiert ethische Leitplanken, aber nicht die Vertragsbedingungen von Anthropic. Die Regierung zeigt Silicon Valley, wer in strategischen Partnerschaften das Sagen hat.
Der Fall Anthropic verdeutlicht, wie schnell technologische Partnerschaften zum Sicherheitsrisiko erklärt werden können – ein Thema, das auch die IT-Sicherheit im Mittelstand massiv betrifft. Erfahren Sie in diesem Experten-Report, wie Sie Ihr Unternehmen mit effektiven Strategien vor modernen Bedrohungen schützen. Kostenlosen Cyber Security Strategie-Guide herunterladen
Rechtsstreit und Übergangsfrist
Das Verteidigungsministerium gewährt eine sechsmonatige Übergangsfrist, um Anthropics Technologie zu ersetzen. Das Unternehmen kündigte an, die Einstufung als Sicherheitsrisiko gerichtlich anzufechten. Es handle sich um einen gefährlichen Präzedenzfall für Verhandlungen zwischen Unternehmen und Regierung.
Der Konflikt markiert eine Zäsur in der Debatte um verantwortungsvolle Militär-KI. Er zwingt Tech-Branche und Regierungen weltweit, das Spannungsfeld zwischen Innovation, Ethik und Sicherheit neu zu vermessen. Für deutsche Unternehmen wie SAP oder die Telekom, die mit sensiblen Regierungsdaten arbeiten, könnte dieser Fall zum wichtigen Referenzpunkt werden.
Hol dir jetzt den Wissensvorsprung der Aktien-Profis.
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Aktien-Empfehlungen - Dreimal die Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
Für. Immer. Kostenlos.

