Anthropic: US-Regierung schaltet KI-Firma nach Ethik-Streit ab
01.03.2026 - 01:00:32 | boerse-global.deDie US-Regierung hat den KI-Pionier Anthropic auf eine schwarze Liste gesetzt. Grund ist der Weigerung des Unternehmens, sein KI-Modell Claude für bestimmte militärische Zwecke freizugeben. Die Maßnahme eskaliert den Konflikt zwischen Tech-Branche und Staat.
Washington D.C. – In einem beispiellosen Schritt hat die Trump-Administration das KI-Unternehmen Anthropic zum Risiko für die Lieferkette erklärt. Damit sind alle Bundesbehörden angewiesen, die Technologie des Unternehmens nicht mehr zu nutzen. Verteidigungsunternehmen dürfen keine Geschäfte mehr mit Anthropic machen. Der Grund: CEO Dario Amodei lehnte es ab, dem Pentagon uneingeschränkte Nutzungsrechte an der KI Claude einzuräumen.
Während Regierungen und Tech-Giganten über die ethischen Grenzen von Künstlicher Intelligenz streiten, müssen Unternehmen in der EU bereits heute konkrete gesetzliche Vorgaben erfüllen. Dieser kostenlose Leitfaden erklärt verständlich, welche neuen Pflichten und Fristen die EU-KI-Verordnung für Ihr Unternehmen vorsieht. EU-KI-Verordnung kompakt: Jetzt Gratis-Leitfaden sichern
Der Konflikt eskalierte, nachdem Anthropic vergangene Woche öffentlich seine ethischen „roten Linien“ bekräftigte. Das Unternehmen will nicht zulassen, dass seine KI für Massenüberwachung ohne richterlichen Beschluss oder in vollautonomen Waffensystemen eingesetzt wird. Das Pentagon forderte hingegen vertraglich die Freigabe für „alle rechtmäßigen Zwecke“. Als eine Frist am Freitag ohne Einigung verstrich, zog die Regierung die Notbremse.
Ethische „rote Linien“ führen zum Bruch
Im Zentrum des Streits stehen die Sicherheitsgrundsätze von Anthropic. CEO Amodei besteht darauf, dass seine KI nicht eingesetzt werden darf, wenn dies demokratische Werte untergräbt oder die technischen Sicherheitsgrenzen überschreitet. „Wir sind patriotisch und wollen die USA verteidigen“, so Amodei in einer Stellungnahme. „Aber diese spezifischen Anwendungen bergen unkalkulierbare Risiken für Bürgerrechte.“
Das Pentagon sieht das anders. Ein Lieferant könne nach Vertragsunterzeichnung nicht vorschreiben, wie sein Produkt genutzt werde, argumentiert die Behörde. Eine paradoxe Situation: Anthropics Claude war das erste KI-Modell, das für die Arbeit in klassifizierten Netzwerken des Militärs freigegeben wurde – etwa für Geheimdienstanalysen. Nun wird die Partnerschaft beendet.
Harte Vergeltung: „Risiko für die Lieferkette“
Die Reaktion der Regierung fällt drakonisch aus. Präsident Trump ordnete persönlich den sofortigen Stopp der Anthropic-Nutzung in allen Bundesbehörden an. Verteidigungsminister Pete Hegseth erklärte das Unternehmen kurze Zeit später zum „Supply Chain Risk“. Diese Einstufung ist normalerweise ausländischen Gegnern vorbehalten.
Hegseth warf Anthropic vor, das US-Militär „erpressen“ zu wollen. Das Unternehmen dürfe kein „Vetorecht über operative Entscheidungen“ haben. Amodei konterte: Die Maßnahmen seien „vergeltend und strafend“ und für eine amerikanische Firma „beispiellos“. Er zweifelt die Rechtmäßigkeit der Einstufung an und warnt vor einem gefährlichen Präzedenzfall für alle Regierungslieferanten.
Die rasanten Entwicklungen im Bereich der KI bringen nicht nur ethische Fragen, sondern auch neue regulatorische Anforderungen für die Cyber-Sicherheit mit sich. Erfahren Sie in diesem Experten-Report, wie Sie Ihr Unternehmen 2024 proaktiv vor neuen Bedrohungen schützen und gleichzeitig gesetzeskonform agieren. Kostenloses E-Book zu Cyber Security Trends herunterladen
Folgen für KI-Ethik und nationale Sicherheit
Der öffentliche Streit wirft ein Schlaglicht auf die grundsätzliche Debatte: Wer setzt die ethischen Leitplanken für Künstliche Intelligenz in der nationalen Sicherheit? Anthropics Haltung findet Zuspruch in Teilen der Tech-Branche. Andere große KI-Firmen mit Regierungsaufträgen – wie Google, OpenAI oder xAI – müssen nun denselben Spagat bewältigen.
Analysten befürchten einen Abkühlungseffekt. Innovative Unternehmen könnten sich künftig scheuen, mit dem Verteidigungsministerium zusammenzuarbeiten. Das Pentagon hat nun sechs Monate Zeit, um die tief in seinen Systemen verankerte Anthropic-Technologie zu ersetzen. Minister Hegseth spricht von einem Übergang zu einem „besseren und patriotischeren Dienst“.
Ausblick: Gerichtsstreit und gespaltene Zukunft
Die unmittelbare Zukunft von Anthropics Geschäft mit der Regierung ist düster. Das Unternehmen will die „Risiko“-Einstufung gerichtlich anfechten. CEO Amodei betont jedoch: Eine Zusammenarbeit mit dem Militär sei weiterhin möglich – aber nur, wenn die ethischen Bedenken adressiert werden. „Bei unseren roten Linien werden wir nicht nachgeben.“
Dieser Konflikt markiert einen Wendepunkt im Verhältnis zwischen US-Regierung und KI-Industrie. Je mächtiger und integrierter die Technologie wird, desto heftiger wird der Streit um Kontrolle, Ethik und Sicherheit geführt. Das Ergebnis wird von Verbündeten und Gegnern gleichermaßen beobachtet. Es wird die Zukunft der KI in Kriegführung und Staatsführung auf Jahre prägen.
Hol dir den Wissensvorsprung der Aktien-Profis.
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Aktien-Empfehlungen - Dreimal die Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt kostenlos anmelden
Jetzt abonnieren.


