OpenAI zieht Notbremse nach umstrittenem Pentagon-Deal
03.03.2026 - 20:00:43 | boerse-global.deNach massiver Kritik an einem Vertrag mit dem US-Verteidigungsministerium verschärft der KI-Riese OpenAI die ethischen Leitplanken. Das Unternehmen verbietet nun explizit den Einsatz seiner Technologie zur Überwachung von US-Bürgern.
Die Ankündigung am Montag ist ein klarer Rückzieher. OpenAI reagiert damit auf einen Sturm der Entrüstung in der Öffentlichkeit, bei Mitarbeitern und unter KI-Ethikern. Der ursprüngliche Vertrag mit dem Pentagon, der Ende Februar bekannt wurde, hatte wegen seiner vagen Formulierungen und einer als opportunistisch wahrgenommenen Vorgehensweise scharfe Proteste ausgelöst. Nutzer wanderten ab, eine „QuitGPT“-Kampagne machte die Runde.
Während große Tech-Konzerne über ethische Leitplanken streiten, reguliert die EU den Einsatz künstlicher Intelligenz bereits gesetzlich. Dieser kostenlose Leitfaden erklärt verständlich, welche konkreten Pflichten und Risikoklassen die neue EU-KI-Verordnung für Ihr Unternehmen vorsieht. EU-KI-Verordnung kompakt: Jetzt Gratis-E-Book sichern
Explizites Verbot für Inlandsüberwachung
Der überarbeitete Vertragstext enthält nun klare Verbote. OpenAI-Systeme dürfen „nicht vorsätzlich für die Inlandsüberwachung von US-Personen und Staatsangehörigen“ genutzt werden. Das Unternehmen beruft sich dabei auf US-Rechtsgrundlagen wie den Vierten Verfassungszusatz. Zudem sind Nachrichtendienste wie die NSA von diesem Vertrag ausgeschlossen und müssten für eine Nutzung ein separates Abkommen aushandeln.
Diese Kehrtwende folgte auf eine massive Gegenreaktion. Nicht nur Nutzer flohen zum Konkurrenten Anthropic, dessen KI „Claude“ daraufhin die App-Charts anführte. Fast 900 Mitarbeiter von OpenAI und Google unterzeichneten einen offenen Brief. Sie forderten ihre Arbeitgeber auf, Forderungen des Verteidigungsministeriums abzulehnen, die zu Überwachung oder autonomen Waffensystemen führen könnten.
Ein Deal im Schatten eines Konkurrenzstreits
Die ganze Kontroverse ist eng mit einem Zerwürfnis des Pentagons mit Anthropic verknüpft. Die Vorgängerregierung hatte Bundesbehörden angewiesen, die Technologie des Konkurrenten nicht mehr zu nutzen. Der Grund: Anthropic weigerte sich, zentrale Sicherheitsvorkehrungen aus seinem Vertrag zu streichen – darunter ein Verbot von Massenüberwachung und vollautonomer Waffen.
Innerhalb von Stunden nach dieser Entscheidung verkündete OpenAI seinen eigenen Deal. Die ursprüngliche Formulierung „für alle rechtmäßigen Zwecke“ war jedoch genau die Klausel, die Anthropic abgelehnt hatte. Kritiker sahen darin eine gefährliche Hintertür, ähnlich der rechtlichen Rechtfertigung für umstrittene NSA-Programme wie PRISM. Der Vorwurf: OpenAI habe ethische Grundsätze für einen Geschäftsvorteil aufgegeben.
Altman räumt „opportunistisches“ Vorgehen ein
OpenAI-Chef Sam Altman gestand intern wie öffentlich Fehler ein. Man habe die Ankündigung des Deals nicht überstürzen dürfen, sagte er. Die komplexen Themen hätten einer klareren Kommunikation bedurft. Zwar wollte man eine angespannte Lage deeskalieren, doch das Vorgehen wirke im Nachhinein „opportunistisch und schlampig“.
Altman versucht nun, die Erzählung zu wenden: weg vom Bild des Opportunisten, hin zum pragmatischen Partner für nationale Sicherheit. Er betont, der Vertrag enthalte starke Sicherheitsvorkehrungen. Der Zugang zu modernster KI sei für das US-Militär angesichts der Fortschritte globaler Rivalen entscheidend. Altman forderte das Pentagon auf, die neuen Bedingungen allen KI-Firmen anzubieten – auch Anthropic.
Die rasanten Entwicklungen im Bereich der Künstlichen Intelligenz bringen nicht nur ethische, sondern auch neue rechtliche Anforderungen an die IT-Sicherheit mit sich. Was Geschäftsführer heute über Cyber Security und die aktuellen KI-Gesetze wissen müssen, enthüllt dieser Experten-Report. Kostenlosen Cyber-Security-Leitfaden für 2024 herunterladen
Machtprobe zwischen Ethik und Geschäft
Die rasante Abfolge der Ereignisse markiert einen Wendepunkt für die KI-Branche. Sie zeigt die wachsende Macht von öffentlichem Druck und Mitarbeiterprotesten – selbst bei milliardenschweren Staatsaufträgen. Anthropics beharrliches Festhalten an seinen Prinzipien trotz massiven Drucks setzt einen neuen Maßstab für ethische Haltungen in der Branche.
OpenAIs zunächst ambivalente Haltung und der anschließende Rückzug wirken dagegen reaktiv. Der Vorfall zieht eine deutlichere Trennlinie zwischen zwei Philosophien: jenen, die starre, unverhandelbare rote Linien fordern, und jenen, die sich mit bestehenden – oft flexiblen – Rechtsrahmen arrangieren wollen.
Offene Fragen trotz Nachbesserungen
Trotz der Vertragsänderungen bleiben Fragen. Das Verbot bezieht sich auf „vorsätzliche“ Überwachung. Kritiker monieren, dass eine „beiläufige“ Datensammlung über Amerikaner so weiterhin möglich sein könnte. Zudem scheint die heikle Frage autonomer Waffensysteme, ein Kernpunkt für Anthropic, nicht vollständig geklärt.
Die kommenden Monate werden zeigen, ob die neuen Klauseln ausreichen, um das verlorene Vertrauen zurückzugewinnen. Der Vorfall zwingt alle großen KI-Labore, ihre Richtlinien für militärische Anwendungen zu präzisieren. Das Pentagon muss lernen, dass die fortschrittlichsten KI-Tools von Unternehmen stammen, die zunehmend der öffentlichen Meinung verpflichtet sind – und nicht nur staatlichen Direktiven. Der Spagat zwischen Sicherheitsinteressen und ethischen Leitplanken bleibt die zentrale Herausforderung.
Hol dir jetzt den Wissensvorsprung der Aktien-Profis.
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt kostenlos anmelden
Jetzt abonnieren.


