OpenAI-Managerin tritt nach umstrittener Pentagon-Partnerschaft zurück
09.03.2026 - 00:00:11 | boerse-global.de
Die umstrittene Militärkooperation von OpenAI mit dem US-Verteidigungsministerium hat erste personelle Konsequenzen. Caitlin Kalinowski, Leiterin der Roboter und Hardware-Sparte, trat am Samstag aus ethischen Gründen zurück. Ihr Schritt offenbart tiefe Gräben in der Tech-Branche über den Einsatz von KI für nationale Sicherheit.
Ethische Bedenken führen zum Rücktritt
Kalinowski, die 2024 von Meta zu OpenAI gewechselt war, begründete ihren Abgang öffentlich als Prinzipienfrage. In sozialen Medien äußerte sie schwere Vorbehalte gegen den neuen Militärvertrag. Besonders kritisierte sie mögliche Inlandsüberwachung ohne richterliche Kontrolle und den Einsatz tödlicher autonomer Waffensysteme.
Die rasanten Entwicklungen im Bereich der Künstlichen Intelligenz werfen komplexe rechtliche Fragen auf, die seit August 2024 durch neue EU-Vorgaben streng reguliert werden. Dieser kostenlose Leitfaden hilft Unternehmen dabei, die neuen Kennzeichnungspflichten und Risikoklassen der KI-Verordnung rechtssicher umzusetzen. EU-KI-Verordnung kompakt: Jetzt kostenlosen Umsetzungsleitfaden sichern
Die Managerin sieht ein Versagen der Unternehmensführung. Der Vertrag sei überstürzt und ohne klare Schutzmaßnahmen abgeschlossen worden. Trotz ihres Respekts für die Ingenieurteams konnte sie die beschleunigte Militärpartnerschaft nicht mittragen.
Heftige interne Kritik an Pentagon-Deal
Der Vertrag ermöglicht dem US-Verteidigungsministerium die Nutzung von OpenAIs KI-Modellen in klassifizierten Netzwerken. Das Unternehmen verteidigt die Kooperation öffentlich. Sie biete einen verantwortungsvollen Rahmen für Sicherheitsanwendungen und verbiete ausdrücklich Überwachung oder autonome Waffen.
Intern regt sich jedoch Widerstand. CEO Sam Altman soll Mitarbeitern gegenüber eingeräumt haben, der Deal wirke opportunistisch und schlecht umgesetzt. Zur Schadensbegrenzung kündigte er Nachverhandlungen an. Die Überarbeitung soll klare Verbote enthalten: Militärgeheimdienste dürfen die KI weder zur Bürgerüberwachung noch zur Verarbeitung kommerziell erworbener Personendaten nutzen.
Vorgeschichte: Anthropic als warnendes Beispiel
Die Timing-Frage ist brisant. Erst Tage vor OpenAIs Vertragsunterzeichnung brach die US-Regierung ihre Zusammenarbeit mit dem KI-Rivalen Anthropic ab. Die Begründung: Das Unternehmen weigerte sich, seine strikten Ethik-Richtlinien gegen Massenüberwachung und autonome Kampfdrohnen aufzuweichen.
Die Regierung stufte Anthropic daraufhin als Risiko für Lieferketten ein. Bundesbehörden müssen die Software nun meiden, Verteidigungsunternehmen dürfen nicht mehr kooperieren. Experten sehen darin ein neues Druckmittel: Nationale Sicherheitsgesetze werden gegen einheimische Tech-Firmen eingesetzt – nicht wegen ausländischer Bedrohungen, sondern wegen ethischer Politik.
OpenAI füllte die Lücke, die Anthropic hinterließ. Doch mit dem Vertrag übernahm das Unternehmen auch die damit verbundene ethische Prüfung.
Konsumenten reagieren mit Abwanderung
Die öffentliche Reaktion ließ nicht lange auf sich warten. Nach Bekanntwerden des Militärvertrags kündigten etwa 1,5 Millionen Nutzer ihre Premium-Abos für den Chatbot. Dieser Exodus zeigt die wachsende Besorgnis über Datenschutz und möglichen Missbrauch generativer KI durch staatliche Akteure.
Der Schutz sensibler Daten und die Einhaltung neuer gesetzlicher Vorgaben werden für die IT-Sicherheit von Unternehmen im Jahr 2024 immer kritischer. Erfahren Sie in diesem Experten-Report, wie Sie Ihr Unternehmen proaktiv vor Cyberbedrohungen schützen und welche neuen Gesetze Sie jetzt kennen müssen. Kostenloses E-Book: Cyber Security Trends und Schutzmaßnahmen entdecken
Der Vertrauensverlust macht deutlich: Sowohl Unternehmenskunden als auch Privatnutzer reagieren äußerst sensibel auf Militärkooperationen von Tech-Firmen. Die De-batte über ethische Grenzen kommerzieller Software ist in Silicon Valley neu entfacht.
Was bedeutet das für die Zukunft?
Der Konflikt zwischen ethischer Technologieentwicklung und Verteidigungsanforderungen dürfte sich verschärfen. OpenAI steht unter Druck von Belegschaft, Datenschützern und Kunden, die versprochenen Schutzmaßnahmen transparent umzusetzen. Unabhängige Aufsichtsmechanismen werden wahrscheinlich nötig.
Das Vorgehen des Verteidigungsministeriums gegen nicht kooperationswillige Anbieter setzt zudem einen gefährlichen Präzedenzfall. Andere KI-Entwickler müssen nun ihre roten Linien definieren, während Militärs verstärkt generative Modelle in ihre Kommandostrukturen integrieren wollen.
Die Tech-Branche steht 2026 vor grundlegenden Debatten über Governance, Unternehmensverantwortung und die Rolle künstlicher Intelligenz in modernen Konflikten. Die Frage, ob sich ethische Prinzipien gegen lukrative Staatsaufträge behaupten können, ist offener denn je.
Hol dir jetzt den Wissensvorsprung der Aktien-Profis.
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Aktien-Empfehlungen - Dreimal die Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt kostenlos anmelden
Jetzt abonnieren.

