OpenAI, Pentagon-Deal

OpenAI sichert sich Pentagon-Deal nach Ausbootung von Konkurrent Anthropic

01.03.2026 - 05:30:46 | boerse-global.de

OpenAI sichert sich einen Schlüsselvertrag mit dem Pentagon, der ethische Grenzen für den KI-Einsatz festschreibt. Der Deal folgt auf das Verbot des Konkurrenten Anthropic.

OpenAI sichert sich Pentagon-Deal nach Ausbootung von Konkurrent Anthropic - Foto: über boerse-global.de
OpenAI sichert sich Pentagon-Deal nach Ausbootung von Konkurrent Anthropic - Foto: über boerse-global.de

In einem strategischen Coup übernimmt OpenAI die Rolle des Schlüsselpartners für KI im US-Verteidigungsministerium. Das milliardenschwere Abkommen folgt unmittelbar auf das Verbot des Konkurrenten Anthropic – und enthält genau jene ethischen Schranken, die zur Eskalation führten.

Washington D.C. – Die Karten im milliardenschweren Wettlauf um Künstliche Intelligenz für die nationale Sicherheit wurden am Freitagabend neu gemischt. Während die Regierung unter Donald Trump den KI-Entwickler Anthropic mit einem umfassenden Nutzungsverbot belegte, sicherte sich dessen größter Rivale OpenAI einen zentralen Vertrag für den Einsatz seiner Modelle in den klassifizierten Netzwerken des Pentagons. Der Deal positioniert das von Sam Altman geführte Unternehmen als primären Technologiepartner des US-Verteidigungsministeriums – eine Rolle, die bis vor wenigen Stunden noch Anthropic zugedacht war.

Anzeige

Seit August 2024 gelten auch in Europa neue Regeln für künstliche Intelligenz, die Unternehmen bei der Nutzung von Systemen wie ChatGPT strikt in die Pflicht nehmen. Dieser kostenlose Leitfaden zeigt Ihnen, wie Sie die Anforderungen der EU-KI-Verordnung rechtssicher umsetzen. EU-KI-Verordnung kompakt: Jetzt Gratis-Leitfaden sichern

Ethische „rote Linien“ im Vertragstext

Das Besondere an OpenAIs neuem Abkommen: Es enthält explizite Verbote, die zum Scheitern der Verhandlungen mit Anthropic führten. CEO Sam Altman bestätigte, dass der Vertrag mit dem Ministerium – in der aktuellen Administration auch „Kriegsministerium“ genannt – klare ethische Schranken festschreibt. „Die Vereinbarung verbietet ausdrücklich den Einsatz für Massenüberwachung im Inland und stellt sicher, dass Menschen die Verantwortung für Gewalteinsätze tragen, auch bei autonomen Waffensystemen“, so Altman.

Diese Klauseln spiegeln genau jene „roten Linien“ wider, auf die Anthropic beharrt hatte. Zur Absicherung wird die KI ausschließlich in cloud-basierten Umgebungen laufen. Eine Installation auf „Edge“-Systemen wie Drohnen oder Flugzeugen, wo Modelle ohne Aufsicht autonome Waffen steuern könnten, ist damit technisch ausgeschlossen. Zudem werden freigegebene OpenAI-Mitarbeiter den Einsatz begleiten. Das Unternehmen betont, diese „Schutzräume“ seien umfassender als bei jeder früheren KI-Installation in klassifizierten Umgebungen.

Wie Anthropic zur „Risikoquelle“ erklärt wurde

Der Deal mit OpenAI krönt eine wochenlange, öffentlich ausgetragene Konfrontation. Das Pentagon hatte von Anthropic gefordert, seine KI-Modelle für „alle rechtmäßigen Zwecke“ freizugeben – eine Formulierung, die nach Ansicht des Unternehmens seine ethischen Restriktionen ausgehebelt hätte. Als Anthropic auf seinen Verboten bezüglich Massenüberwachung und autonomer Waffen bestand, eskalierte die Situation.

Präsident Trump ordnete an, die Nutzung von Anthropic-Technologie in allen Bundesbehörden innerhalb von sechs Monaten einzustellen. Verteidigungsminister Pete Hegseth erklärte das Unternehmen kurze Zeit später zur „Risikoquelle für die Lieferkette der nationalen Sicherheit“. Diese gravierende Einstufung, bisher vor allem ausländischen Gegnern vorbehalten, untersagt jedem Pentagon-Zulieferer Geschäfte mit Anthropic. Das betroffene Unternehmen kündigte an, die Entscheidung gerichtlich anzufechten.

Anzeige

Die zunehmende Integration von KI-Systemen in sensible Infrastrukturen erfordert neue Sicherheitsstrategien für Unternehmen jeder Größe. Was Geschäftsführer jetzt über Cyber Security und die aktuelle KI-Regulierung wissen müssen, erfahren Sie in diesem Experten-Report. Kostenloses E-Book zu Cyber Security Awareness Trends herunterladen

Strategischer Sieg in einem Milliardenmarkt

OpenAIs Erfolg, ausgerechnet mit den ethischen Klauseln zum Zug zu kommen, für die sein Rivale sanktioniert wurde, wirft Fragen zum Verhandlungsgeschick des Pentagons auf. Beobachter werten den Schritt dennoch als klaren strategischen Sieg für Altmans Firma. Sie füllt das Vakuum, das Anthropic hinterlässt, und festigt ihre Position im lukrativen Markt für Sicherheits-KI.

Der Hintergrund ist das ehrgeizige Programm des Pentagons, fortsrittliche KI zu integrieren. Zuvor hatte das Ministerium mit mehreren KI-Firmen, darunter OpenAI, Anthropic, Google und xAI, Verträge im Volumen von jeweils bis zu 200 Millionen US-Dollar abgeschlossen. Anthropics Modell „Claude“ war bis zur Sperre das einzige Fundamentale Modell, das für bestimmte klassifizierte Umgebungen zugelassen war. Hunderte Mitarbeiter von Google und OpenAI unterstützten in einem offenen Brief öffentlich die ethische Haltung von Anthropic.

Präzedenzfall für die Zukunft militärischer KI

Die Entwicklung markiert einen Wendepunkt im Spannungsfeld zwischen militärischer Operabilität und technologischer Ethik. Der OpenAI-Vertrag könnte beweisen, dass sich Sicherheitsrestriktionen in Militärabkommen integrieren lassen. Sam Altman forderte das Verteidigungsministerium auf, allen KI-Firmen dieselben Bedingungen anzubieten und von einseitigen Maßnahmen zu „vernünftigen Vereinbarungen“ überzugehen.

Die technische Integration von OpenAIs Modellen in hochsensible Systeme könnte durch bestehende Partnerschaften beschleunigt werden, etwa mit Amazon Web Services, dessen Cloud bereits für sensible US-Regierungsdaten zertifiziert ist. Die Branche blickt nun gespannt auf den angekündigten Rechtsstreit von Anthropic. Sein Ausgang wird die künftigen Beziehungen zwischen Silicon Valley und der US-Regierung maßgeblich prägen.

Hol dir jetzt den Wissensvorsprung der Aktien-Profis.

 <b>Hol dir jetzt den Wissensvorsprung der Aktien-Profis.</b>

Seit 2005 liefert der Börsenbrief trading-notes verlässliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt kostenlos anmelden
Jetzt abonnieren.

boerse | 68623300 |