Anthropic verbannt, OpenAI rückt nach: USA tauschen ihre KI-Schlüssellieferanten aus
03.03.2026 - 02:51:38 | boerse-global.deDie US-Regierung verbannt den KI-Entwickler Anthropic aus allen Behörden und schließt stattdessen ein Mega-Deal mit Konkurrent OpenAI. Hintergrund ist ein Streit über ethische Grenzen beim Militär.
Washington D.C. – In einer beispiellosen Zäsur für die Künstliche-Intelligenz-Branche hat die US-Regierung vergangene Woche einen radikalen Wechsel vollzogen. Sie untersagte allen Bundesbehörden die Nutzung der Technologie von Anthropic und erklärte das Unternehmen zum Risiko für die nationale Sicherheit. Parallel verkündete der Konkurrent OpenAI einen wegweisenden Vertrag mit dem Pentagon. Der dramatische Austausch der KI-Schlüssellieferanten offenbart den Machtkampf zwischen Unternehmensethik und staatlichen Sicherheitsinteressen.
Seit August 2024 gelten auch in Europa neue Regeln für künstliche Intelligenz – viele Unternehmen riskieren unwissentlich Bußgelder. Dieser kostenlose Leitfaden zeigt Ihnen kompakt, was Sie bei der Nutzung und Implementierung von KI jetzt beachten müssen. EU-KI-Verordnung: Jetzt kostenlosen Umsetzungsleitfaden sichern
Anthropic, bislang der einzige KI-Anbieter mit einem Modell in den geheimen Netzwerken des Pentagons, verliert damit einen Vertrag im Wert von bis zu 200 Millionen Euro. Die Behörden haben nun sechs Monate Zeit, die Dienste des Unternehmens abzuwickeln. Für OpenAI hingegen öffnet sich die Tür zum mächtigsten Militär der Welt.
Ethische „rote Linien“ führen zum Bruch
Der Konflikt eskalierte an einem zentralen Punkt: der vertraglichen Kontrolle. Anthropic bestand in den Verhandlungen mit dem Verteidigungsministerium auf explizite, schriftliche Grenzen für den Einsatz seines KI-Modells Claude. Zwei Anwendungen sollten ausgeschlossen werden: massenhafte Überwachung im Inland und vollautonome Waffensysteme ohne menschliche Kontrolle. Für das Unternehmen waren dies unverhandelbare ethische Grundsätze.
Das Pentagon lehnte diese spezifischen Einschränkungen ab und pochte auf eine pauschale Freigabe für alle „gesetzlich zulässigen militärischen Zwecke“. Nach monatelangen, ergebnislosen Gesprächen griff die Trump-Administration durch. Sie stufte Anthropic als „Risiko für die Lieferkette“ ein – ein Label, das normalerweise ausländischen Gegnern vorbehalten ist. Verteidigungsminister Pete Hegseth verbot zudem allen Militär-Zulieferern künftige Geschäfte mit Anthropic. Das Unternehmen kündigte an, den Entscheid rechtlich anzufechten.
OpenAI betritt die Bühne – mit eigenen Bedingungen
Fast zeitgleich mit dem Bann präsentierte sich OpenAI als neuer Partner. CEO Sam Altman bestätigte auf der Plattform X einen Deal zur Nutzung seiner KI-Modelle in den klassifizierten Systemen des Militärs. Bemerkenswert: Altman betonte, dass der Vertrag jene ethischen Prinzipien enthalte, die zum Streit mit Anthropic geführt hatten.
Die rasante Entwicklung der KI bringt nicht nur ethische, sondern auch neue rechtliche Anforderungen an die IT-Sicherheit mit sich. Erfahren Sie in diesem Experten-Report, welche neuen Gesetze Geschäftsführer jetzt kennen müssen und wie Sie Ihr Unternehmen 2024 wirksam schützen. Kostenloses E-Book zu Cyber Security & KI-Regulierung herunterladen
OpenAI zog ebenfalls zwei „rote Linien“: ein Verbot massenhafter Inlandsüberwachung und die Forderung nach menschlicher Verantwortung auch beim Einsatz autonomer Waffen. Das Unternehmen setzt dabei auf eine Mischung aus vertraglichen Verweisen auf US-Gesetze, technischen Sicherheitsvorkehrungen und der direkten Einbindung eigener Ingenieure. Ob diese Regelungen tatsächlich schärfer sind als die abgelehnten Bedingungen von Anthropic, wird in Fachkreisen jedoch bereits debattiert.
Paradigmenwechsel für KI und nationale Sicherheit
Die Vorgänge markieren einen Wendepunkt in den Beziehungen zwischen Tech-Giganten und dem Staat. Die Einstufung eines heimischen KI-Pioniers als Sicherheitsrisiko setzt ein beunruhigendes Präzedenz. Sie signalisiert: Die Regierung ist bereit, erheblichen Druck auszuüben, um technologische Dienstleister auf ihre Sicherheitsagenda einzuschwören – notfalls auch gegen deren Unternehmensgrundsätze.
Analysten sehen darin die wachsenden Schmerzen der Integration von Hochrisiko-KI in sensible Staatsapparate. Die Frage, wer die Kontrolle über diese transformativen Systeme hat – die sie entwickelnden Konzerne oder der sie einsetzende Staat – ist drängender denn je. Der abrupte Wechsel vom einzigen Anbieter zeigt zudem die strategische Verwundbarkeit durch proprietäre KI. Dies dürfte das Interesse des Pentagons an offenen oder quelloffenen Modellen deutlich steigern, um operative Abhängigkeiten zu verringern.
Offene Fragen und ein riesiger Umbau
Für die US-Behörden beginnt nun ein logistischer Kraftakt. Innerhalb eines halben Jahres müssen sie die Technologie von Anthropic in allen Ressorts – vom Finanzministerium bis zu Geheimdiensten – ersetzen. Für OpenAI ist der Deal ein strategiccher Sieg, der den Konzern zum zentralen KI-Partner der US-Regierung macht.
Die langfristigen Folgen sind noch unklar. Während Anthropic in eine ungewisse kommerzielle und rechtliche Zukunft blickt, steht OpenAI unter schärfster Beobachtung. Die Umsetzung seiner Sicherheitsversprechen in den geheimen Labors des Pentagons wird genauestens geprüft werden. Der Fall ist bereits jetzt ein Lehrstück über die hohen Risiken, wenn sich künstliche Intelligenz und nationale Verteidigung verbinden.
Hol dir den Wissensvorsprung der Aktien-Profis.
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Aktien-Empfehlungen - Dreimal die Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt kostenlos anmelden
Jetzt abonnieren.


