OpenAI in der Krise: Militär-Deal löst Massenexodus aus
11.03.2026 - 00:00:26 | boerse-global.deDer KI-Riese OpenAI steckt in einer tiefen Vertrauenskrise. Ein umstrittener Vertrag mit dem US-Verteidigungsministerium hat zu einem massiven Nutzer- und Talent-Schwund geführt. Die Beratung über die Militarisierung von Künstlicher Intelligenz erreicht einen neuen Höhepunkt.
Während die ethische Debatte um KI-Riesen eskaliert, schafft die neue EU-Gesetzgebung nun klare Fakten für den Einsatz von Algorithmen. Dieser kostenlose Leitfaden zeigt Ihnen kompakt aufbereitet, welche Kennzeichnungspflichten und Risikoklassen Sie seit August 2024 zwingend beachten müssen. EU-KI-Verordnung: Jetzt kostenlosen Umsetzungsleitfaden sichern
Ethik-Chefin tritt aus Protest zurück
Der interne Widerstand brach am Wochenende des 7. März offen aus. Caitlin Kalinowski, Leiterin der Hardware- und Robotik-Sparte, trat aus ethischen Gründen zurück. In öffentlichen Statements kritisierte sie das Tempo der Militärpartnerschaft und warnte vor den Risiken autonomer Waffensysteme und massenhafter Überwachung ohne richterliche Kontrolle.
Sie ist nicht allein. Bis zum 10. März haben sich rund 98 OpenAI-Mitarbeiter und 796 Google-Beschäftigte mit Solidaritätsbekundungen für den Konkurrenten Anthropic ausgesprochen. Mehr als 30 Forscher von OpenAI, Google und DeepMind unterstützen zudem eine Klage von Anthropic gegen das Pentagon. Sie werfen der Regierung vor, mit aggressiven Beschaffungspraktiken die Innovation zu untergraben und notwendige Schutzvorkehrungen zu missachten.
Der umstrittene Pentagon-Deal
Auslöser der Krise ist eine Vereinbarung, die OpenAI-CEO Sam Altman am 28. Februar bestätigte. Das Unternehmen will seine KI-Modelle in den klassifizierten Netzwerken des Pentagons einsetzen. Der Deal kam zustande, nachdem der KI-Entwickler Anthropic eine ähnliche Zusammenarbeit abgelehnt hatte. Anthropic hatte klare ethische Leitplanken gesetzt: Keine Massenüberwachung und keine tödlichen autonomen Waffen.
Die Reaktion des Verteidigungsministeriums folgte prompt. US-Verteidigungsminister Pete Hegseth stufte Anthropic Anfang März als Risiko für die Lieferkette ein. Diese beispiellose Maßnahme schloss das Unternehmen von Bundesaufträgen aus. Beobachter vermuten, dass OpenAI in diese Lücke sprang – und damit eine Grundsatzdebatte über die Verantwortung von Tech-Unternehmen entfachte.
Nutzer wandern massenhaft ab
Die öffentliche Reaktion traf OpenAI mit voller Wucht. Nach Bekanntwerden des Deals schnellten die Deinstallationen der ChatGPT-App in den USA um 295 Prozent in die Höhe. Enttäuschte Nutzer wechselten zu Alternativen und veränderten damit das Wettbewerbsgefüge fundamental.
Anthropics KI-Assistent Claude katapultierte sich an die Spitze der Download-Charts im Apple App Store. Er überholte ChatGPT, Googles Gemini und Elon Musks Grok. Unter Druck räumte Altman auf Social Media ein, die Umsetzung des Militärabkommens sei überstürzt verlaufen und die öffentliche Wahrnehmung "höchst ungünstig". Das Unternehmen kündigte an, Vertragsklauseln nachzubessern, insbesondere zu Überwachung und kommerziell erworbenen Informationen.
Kann OpenAI seine Schutzversprechen halten?
OpenAI verteidigt die Partnerschaft mit Verweis auf "beispiellose Sicherheitsvorkehrungen". Drei strikte Verbote seien vertraglich festgehalten: Keine Massenüberwachung im Inland, keine Steuerung tödlicher autonomer Waffen durch die Modelle und keine hochriskanten automatisierten Entscheidungen wie in Sozialkreditsystemen.
Technisch setzt das Unternehmen auf eine Cloud-only-Architektur. Die Modelle sollen nicht direkt auf physischen Geräten laufen, sondern in abgeschotteten militärischen Cloud-Umgebungen. Sicherheitsüberprüfte Ingenieure von OpenAI wollen den Prozess überwachen. Doch Skeptiker fragen: Wie will ein Privatunternehmen diese Regeln in hochgradig geheimen Regierungsinfrastrukturen durchsetzen? Die Befürchtung lautet, dass vertragliche Schutzmechanismen nicht ausreichen, um einen möglichen Missbrauch durch staatliche Stellen zu verhindern.
Ein Wendepunkt für die gesamte KI-Branche
Die aktuelle Krise erinnert an frühere ethische Konflikte wie Googles "Project Maven" 2018. Sie offenbart einen grundlegenden Zielkonflikt: Die strategischen Interessen der nationalen Sicherheit prallen auf die ethischen Leitlinien der Tech-Branche und die Bedenken ihrer Mitarbeiter.
Die Bestrafung von Anthropic durch das Pentagon setzt zudem einen gefährlichen Präzedenzfall. Die Einstufung als Lieferkettenrisiko wird zur Waffe, um Tech-Firmen gefügig zu machen. Rechtsexperten fordern dringend klare gesetzliche Rahmenbedingungen auf Bundesebene. Ohne demokratisch legitimierte Gesetze zur Regulierung militärischer KI-Nutzung lastet die gesamte Verantwortung auf privaten Verträgen – ein wackliges Fundament im globalen Wettbewerb.
Angesichts der rasanten technologischen Entwicklung und neuer Cyber-Bedrohungen stehen viele Unternehmen vor der Herausforderung, ihre IT-Sicherheit rechtssicher aufzustellen. Dieser Experten-Report liefert Ihnen effektive Strategien und informiert über neue Gesetze, damit Sie Ihr Unternehmen auch ohne riesige Budgets vor Angriffen schützen können. Kostenloses Cyber-Security E-Book jetzt herunterladen
Was kommt als Nächstes?
Die Folgen des OpenAI-Skandals werden die Branche nachhaltig verändern. Kongress-Anhörungen und neue Gesetze zum Schutz vor KI-gestützter Massenüberwachung sind wahrscheinlich. Im Tech-Sektor könnte die Debatte die Entwicklung datenschutzfreundlicher, dezentraler Plattformen beschleunigen.
Für OpenAI wird die größte Herausforderung sein, Spitzentalente zu halten. Sollten die ethischen Grabenkämpfe weiter eskalieren, rechnen Analysten mit weiteren prominenten Abgängen. Die kommenden Monate werden zeigen, ob die nachgebesserten Sicherheitsversprechen das öffentliche Vertrauen zurückgewinnen können – oder ob die Abwanderung zu prinzipientreuen Konkurrenten wie Anthropic zu einer dauerhaften Neuordnung der KI-Landschaft führt.
So schätzen Börsenprofis die Aktie ein. Verpasse keine Chance mehr.
Für. Immer. Kostenlos.

