Anthropic, US-Regierung

Anthropic: US-Regierung wirft KI-Pionier nach Ethik-Streit raus

28.02.2026 - 23:48:51 | boerse-global.de

Die US-Regierung stuft Anthropic als Sicherheitsrisiko ein und untersagt die Nutzung seiner KI-Technologie, nachdem das Unternehmen militärische Nutzung ablehnte. Ein Rechtsstreit folgt.

Anthropic: US-Regierung wirft KI-Pionier nach Ethik-Streit raus - Foto: über boerse-global.de
Anthropic: US-Regierung wirft KI-Pionier nach Ethik-Streit raus - Foto: über boerse-global.de

Die US-Regierung hat alle Behörden angewiesen, die Technologie des KI-Unternehmens Anthropic nicht mehr zu nutzen. Der Schritt folgt auf einen öffentlichen Streit über ethische Grenzen beim militärischen Einsatz von Künstlicher Intelligenz.

Washington D.C. — In einer beispiellosen Eskalation hat die Trump-Administration am Freitag einen Regierungs-weiten Bann für die Technologie des KI-Sicherheitsspezialisten Anthropic verhängt. Auslöser ist die Weigerung des Unternehmens, dem Pentagon uneingeschränkten Zugriff auf seine leistungsstarken KI-Modelle zu gewähren. Verteidigungsminister Pete Hegseth stufte Anthropic daraufhin als „Risiko für die nationale Sicherheit“ ein – eine gravierende Einstufung, die Geschäfte mit Militärunternehmen praktisch unmöglich macht.

Anzeige

Der politische Streit um ethische Grenzen zeigt, wie schnell sich der regulatorische Rahmen für KI-Systeme wandeln kann. Dieser kostenlose Leitfaden hilft Unternehmen, die Anforderungen der neuen EU-KI-Verordnung zu verstehen und rechtssicher umzusetzen. Kostenloses E-Book zur KI-Verordnung herunterladen

Zwei ethische „rote Linien“ als Bruchstelle

Im Zentrum des Konflikts stehen zwei Forderungen des Pentagons, die Anthropic-Chef Dario Amodei öffentlich ablehnte. Das Unternehmen, dessen KI „Claude“ auch in klassifizierten US-Regierungsnetzen läuft, will seine Technologie nicht für massive innenpolitische Überwachung oder für vollautonome Waffensysteme freigeben.

„Der Einsatz von KI für flächendeckende Überwachung im Inland ist mit demokratischen Werten unvereinbar“, erklärte Amodei. Zudem seien aktuelle KI-Systeme „schlicht nicht zuverlässig genug“, um über Leben und Tod zu entscheiden. Diese Haltung brachte dem Unternehmen massive Gegenwehr ein. Das Pentagon pochte darauf, Technologie für „alle rechtmäßigen Zwecke“ nutzen zu können und ließ sich keine Vorgaben von einem Privatunternehmen machen.

Ultimatum und Vergeltung

Nach Ablauf eines gestellten Ultimatums schlug die Regierung hart zurück. Neben der „Risiko“-Einstufung erließ Präsident Trump die Anweisung zum vollständigen Ausstieg aller Behörden aus Anthropic-Diensten – mit einer sechsmonatigen Übergangsfrist. Zuvor hatte die Administration sogar mit dem Defense Production Act gedroht, einem Kriegswirtschaftsgesetz aus der Zeit des Kalten Krieges, das die Regierung zur Zwangsarbeit verpflichten kann.

Anthropic kündigte umgehend an, gegen die „vergeltenden und strafenden“ Maßnahmen vor Gericht zu ziehen. Die Einstufung als Sicherheitsrisiko sei rechtlich nicht haltbar und setze einen „gefährlichen Präzedenzfall für jedes US-Unternehmen, das mit der Regierung verhandelt“.

Anzeige

Während staatliche Akteure über den Einsatz von KI streiten, rückt die IT-Sicherheit in den Fokus der Gesetzgebung. Erfahren Sie in diesem Experten-Report, wie Sie Ihr Unternehmen proaktiv vor Cyber-Bedrohungen schützen und neue gesetzliche Vorgaben erfüllen. Gratis Cyber Security E-Book sichern

OpenAI springt in die Bresche – mit Einschränkungen

Noch am Freitagabend meldete sich der größte Konkurrent zu Wort: OpenAI gab einen neuen Vertrag mit dem Pentagon bekannt. CEO Sam Altman betonte, dass diese Vereinbarung ausdrücklich Massenüberwachung im Inland verbiete und die menschliche Verantwortung beim Waffeneinsatz sicherstelle – genau die Prinzipien, die bei Anthropic zum Bruch führten.

Die Botschaft ist klar: Das Pentagon war zu diesen ethischen Zugeständnissen bereit, aber nicht bei Anthropic. Der aggressive öffentliche Disput sendet Schockwellen durch das Silicon Valley. Er zwingt andere KI-Firmen, sich zu positionieren: Wollen sie Regierungsaufträge, müssen sie möglicherweise die Kontrolle über den Einsatz ihrer Technologie abgeben.

Wer setzt die ethischen Grenzen der KI?

Der Rauswurf von Anthropic markiert einen Wendepunkt im Verhältnis zwischen Tech-Branche und US-Staat. Das Unternehmen, gegründet von ehemaligen OpenAI-Mitarbeitern mit Fokus auf KI-Sicherheit, war stets ein Partner der Regierung – bis zu seinen ethischen Kernprinzipien.

Während die Behörden nun den Ausstieg planen, wird der angekündigte Rechtsstreit von der gesamten Branche verfolgt. Das Urteil könnte langfristig bestimmen, wie ethische Leitplanken in staatlichen KI-Verträgen verhandelt werden. Die grundsätzliche Frage bleibt: Liegt die Kontrolle über die ethischen Grenzen Künstlicher Intelligenz bei den Entwicklern – oder bei denen, die sie einsetzen?

Hol dir jetzt den Wissensvorsprung der Aktien-Profis.

 <b>Hol dir jetzt den Wissensvorsprung der Aktien-Profis.</b>

Seit 2005 liefert der Börsenbrief trading-notes verlässliche Aktien-Empfehlungen - Dreimal die Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt kostenlos anmelden
Jetzt abonnieren.

boerse | 68622466 |