Anthropic, KI-Pionier

Anthropic: KI-Pionier sagt Pentagon den Kampf an – und lockert eigene Sicherheitsregeln

27.02.2026 - 06:32:35 | boerse-global.de

Der KI-Entwickler Anthropic lehnt militärische Nutzung seiner Technologie ab, schwächt jedoch zeitgleich seine internen Sicherheitsvorgaben unter Wettbewerbsdruck ab.

Anthropic: KI-Pionier sagt Pentagon den Kampf an – und lockert eigene Sicherheitsregeln - Foto: über boerse-global.de
Anthropic: KI-Pionier sagt Pentagon den Kampf an – und lockert eigene Sicherheitsregeln - Foto: über boerse-global.de

Der KI-Entwickler Anthropic weigert sich, seine Technologie für militärische Massenüberwachung oder autonome Waffen freizugeben. Gleichzeitig schwächt das Unternehmen seine einst strengen Sicherheitsvorgaben ab – ein strategischer Balanceakt unter Wettbewerbsdruck.

San Francisco, 27. Februar 2026 – In einer Woche der Widersprüche stellt sich der KI-Pionier Anthropic öffentlich gegen das US-Verteidigungsministerium. Das Unternehmen lehnte Forderungen nach einer uneingeschränkten militärischen Nutzung seiner Technologie ab. Diese prinzipientreue Haltung kommt nur Tage, nachdem Anthropic seine eigene, als flagship geltende Sicherheitsrichtlinie grundlegend überarbeitet hat. Kritiker sehen darin eine Aufweichung des ursprünglichen Versprechens, Sicherheit über alles zu stellen.

Anzeige

Während Tech-Giganten über ethische Leitplanken streiten, reguliert die Politik bereits den Einsatz künstlicher Intelligenz in der Wirtschaft. Dieser kostenlose Leitfaden erklärt Ihnen verständlich, welche konkreten Kennzeichnungs- und Dokumentationspflichten die neue EU-KI-Verordnung für Ihr Unternehmen vorsieht. EU-KI-Verordnung kompakt: Jetzt kostenlosen Umsetzungsleitfaden sichern

Konfrontation mit dem Pentagon: Eine rote Linie wird gezogen

„Wir können es mit unserem Gewissen nicht vereinbaren“, erklärte Anthropic-CEO Dario Amodei am Donnerstag. Sein Unternehmen werde die vom Pentagon geforderten Sicherheitsvorkehrungen nicht entfernen. Diese verhindern, dass KI-Modelle wie das bekannte Claude-System für Massenüberwachung im Inland oder in vollautonomen Waffensystemen eingesetzt werden. Das Verteidigungsministerium hatte Anthropic offenbar ein Ultimatum bis zum 27. Februar gestellt: Entweder erlaubt das Unternehmen jede gesetzlich zulässige militärische Nutzung – oder es muss mit schwerwiegenden Konsequenzen rechnen. Dazu zählen der Wegfall eines Vertrags über 200 Millionen Euro und die Einstufung als Risiko für die Lieferkette.

Trotz des Drucks, der auch vom Verteidigungsminister Pete Hegseth ausgeht, bleibt Anthropic hart. Amodei betonte zwar den Willen zur weiteren Zusammenarbeit mit den Streitkräften – aber nur mit den ethischen Schutzvorkehrungen. Sollte der Vertrag gekündigt werden, wolle man einen reibungslosen Übergang zu einem anderen Anbieter ermöglichen. Dieser Konflikt verdeutlicht die wachsende Spannung zwischen den nationalen Sicherheitsinteressen und den ethischen Leitplanken, die private Technologieunternehmen setzen.

Interner Kurswechsel: Das Ende eines „harten Stopps“

Während Anthropic gegenüber dem Militär eine klare Grenze zieht, lockert es intern seine eigenen Entwicklungsbeschränkungen. Am 24. Februar veröffentlichte das Unternehmen Version 3.0 seiner „Responsible Scaling Policy“ (RSP). Dieser Rahmen war bislang zentral für die Identität des Unternehmens als sicherheitsorientiertes KI-Labor. Die Aktualisierung entfernt ein Kernversprechen: den verbindlichen Stopp der Entwicklung leistungsfähigerer KI-Modelle, sobald deren Fähigkeiten die vorhandenen Sicherheitsgarantien übersteigen.

Seit seiner Gründung 2021 durch ehemalige OpenAI-Mitarbeiter galt Anthropic als besonders sensibel für die Langzeitrisiken fortgeschrittener KI. Die ursprüngliche RSP von 2023 basierte auf einem System von „KI-Sicherheitsstufen“ (ASLs), das die Entwicklung leistungsstärkerer Modelle an den Nachweis wirksamer Schutzmaßnahmen koppelte.

Die neue Politik gibt diesen „harten Stopp“ auf. Verantwortliche bei Anthropic begründen den Schritt pragmatisch: Der immense Wettbewerbsdruck und das Fehlen branchenweiter Standards mache ein einseitiges Anhalten der Entwicklung riskant. Würde man pausieren, während Konkurrenten wie OpenAI oder Google ungebremst vorpreschen, könnte dies am Ende zu einer unsichereren KI-Landschaft führen. Der Einfluss der vorsichtigsten Akteure auf die Forschungsrichtung würde schwinden.

Anzeige

Die rasanten Fortschritte bei der KI-Entwicklung bringen nicht nur neue Regularien, sondern auch komplexe Anforderungen an die IT-Sicherheit mit sich. Erfahren Sie in diesem Experten-Report, wie Sie Ihr Unternehmen proaktiv vor modernen Cyber-Bedrohungen schützen und gleichzeitig neue Gesetze rechtssicher umsetzen. Cyber Security Strategien 2024: Kostenloses E-Book herunterladen

Statt eines verbindlichen Entwicklungsstopps setzt RSP v3.0 nun auf einen flexibleren Rahmen mit Schwerpunkt auf Transparenz. Dazu gehören die Veröffentlichung eines „Frontier Safety Roadmap“ für Sicherheitsziele und regelmäßiger „Risikoberichte“, die von Dritten überprüft werden können.

Branchensignal: Zwischen Kommerz und Prinzip

Die doppelte Ankündigung Anthropics sendet gemischte Signale an die Tech-Welt. Die Überarbeitung der RSP wird von einigen Analysten als Anpassung an die kommerCIellen Realitäten des KI-Wettlaufs gewertet. Sie rücke Anthropic näher an seine Wettbewerber. KI-Sicherheitsbefürworter reagieren besorgt. Sie sehen darin die Erosion des letzten festen, bedingungslosen Sicherheitsversprechens eines großen KI-Labors.

Gleichzeitig zeigt die kompromisslose Haltung gegenüber dem Pentagon, dass das Unternehmen an bestimmten ethischen Grundsätzen festhält – wenn auch gezielter als zuvor. Dieser öffentliche Machtkampf könnte ein Präzedenzfall für den Umgang von KI-Firmen mit Regierungs- und Militäraufträgen werden. Er erzwingt eine breitere Debatte über den angemessenen Einsatz mächtiger KI-Systeme in Fragen der nationalen Sicherheit.

Die jüngsten Schritte von Anthropic unterstreichen eine zentrale Herausforderung: Wie lassen sich einseitige Sicherheitsversprechen in einem hyperkompetitiven Umfeld aufrechterhalten? Die Ereignisse lenken den Fokus neu auf die kritische Rolle staatlicher Regulierung und branchenweiter Standards. Nur so lassen sich die tiefgreifenden Risiken und der immense Nutzen der Künstlichen Intelligenz gleichermaßen managen.

Hol dir jetzt den Wissensvorsprung der Aktien-Profis.

 <b>Hol dir jetzt den Wissensvorsprung der Aktien-Profis.</b>

Seit 2005 liefert der Börsenbrief trading-notes verlässliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt kostenlos anmelden
Jetzt abonnieren.

boerse | 68616842 |