OpenAI startet Sicherheits-Stipendium für externe Forscher
16.04.2026 - 22:11:37 | boerse-global.deDas Unternehmen hat ein neues Pilotprogramm gestartet, das unabhängige Forscher finanziert und betreut. Dieser Schritt erfolgt in einer Phase tiefgreifender interner Umstrukturierungen, bei denen mehrere eigene Sicherheitsteams aufgelöst wurden.
Während Unternehmen wie OpenAI massiv in die Absicherung ihrer Systeme investieren, stellt die neue EU-Gesetzgebung bereits jetzt klare Anforderungen an den Einsatz künstlicher Intelligenz. Dieser kostenlose Leitfaden hilft Ihnen, Risikoklassen und Compliance-Pflichten des AI Acts rechtzeitig zu verstehen. EU AI Act in 5 Schritten verstehen
Ein neuer Ansatz für KI-Sicherheit
Das OpenAI Safety Fellowship soll eine neue Generation von Talenten fördern, die sich der Ausrichtung fortschrittlicher KI-Systeme an menschliche Ziele widmet. Das sechsmonatige Pilotprogramm läuft vom 14. September 2026 bis zum 5. Februar 2027. Es richtet sich an Ingenieure, Forscher und Praktiker – unabhängig von formalen akademischen Abschlüssen.
Die Finanzierung ist beachtlich: Stipendiaten erhalten ein wöchentliches Stipendium von 3.850 US-Dollar, was einem Jahresgehalt von über 200.000 Dollar entspricht. Zusätzlich stellt OpenAI monatlich etwa 15.000 Dollar an Compute-Credits für intensive Experimente und Modelltests bereit. Die Arbeit kann vor Ort in einem Forschungszentrum in Berkeley oder remote erfolgen.
Fokus auf autonome Agenten und externe Expertise
Das Programm konzentriert sich auf drängende Sicherheitsfragen. Dazu gehören die Bewertung von Risiken, Ethik, Robustheit und Strategien zur Eindämmung von Gefahren. Besonderes Augenmerk liegt auf der Überwachung autonomer KI-Agenten – Systeme, die mehrstufige Aufgaben mit minimaler menschlicher Intervention ausführen können.
OpenAI betont, dass die Stipendiaten zwar Mentoring erhalten, jedoch keinen Zugang zu internen Systemen oder proprietären Modellgewichten bekommen. Das Programm positioniert sich damit bewusst als Förderer unabhängiger Forschung. Ein kluger Schachzug? Das Unternehmen kann so auf Expertise aus Bereichen wie Cybersicherheit und Sozialwissenschaften zurückgreifen, während die eigenen Teams schlank bleiben.
Die rasanten Fortschritte bei autonomen KI-Systemen bringen nicht nur Sicherheitsfragen, sondern auch neue rechtliche Pflichten und Cyberrisiken für die Wirtschaft mit sich. Erfahren Sie in diesem kostenlosen Report, welche Bedrohungen Unternehmer jetzt kennen müssen und wie Sie proaktiv gegensteuern. Kostenloses E-Book zu Cyber Security Trends sichern
Vorwürfe der internen Abwertung von Sicherheit
Die Ankündigung des Stipendiums fällt in eine turbulente Zeit für OpenAI. Erst Anfang April wurden Berichte bekannt, nach denen das Unternehmen innerhalb von 22 Monaten drei aufeinanderfolgende interne Sicherheitsteams aufgelöst hat.
Das Superalignment-Team wurde im Mai 2024 nach dem Abgang der Co-Leiter Ilya Sutskever und Jan Leike aufgelöst. Leike kritisierte damals, Sicherheitskultur und -prozesse seien zugunsten der Produktentwicklung zurückgestellt worden. Es folgten die Auflösung des „AGI Readiness“-Teams im Oktober 2024 und des „Mission Alignment“-Teams im Februar 2026. Auch im offiziellen Unternehmensleitbild bei US-Behörden wurde das Wort „sicher“ aus der Liste bedeutender Aktivitäten gestrichen.
Diese Entwicklungen werfen Fragen auf. Kann ein externes Stipendium die weggefallene interne Kontrolle ersetzen? Kritiker in der Forschungsgemeinschaft bezweifeln, dass beratende Erkenntnisse externer Stipendiaten ein ausreichender Ersatz für dedizierte hausinterne Aufsicht sind.
Bewerbungsphase läuft – Ergebnisse mit Signalwirkung
Trotz der internen Kontroversen präsentiert OpenAI das Fellowship als zentralen Pfeiler seiner aktuellen Sicherheitsstrategie. Bewerbungen für die erste Kohorte sind noch bis zum 3. Mai 2026 möglich. Die Auswahl erfolgt bis zum 25. Juli.
Die erfolgreichen Bewerber sollen konkrete Forschungsergebnisse liefern – von Fachartikeln über neue Sicherheits-Benchmarks bis hin zu öffentlichen Datensätzen. Ihre Arbeit wird genau beobachtet werden. Sie dient als Gradmesser dafür, wie effektiv externalisierte Sicherheitsforschung in der schnelllebigen KI-Branche wirklich sein kann. Die Integration dieser externen Erkenntnisse in produktentscheidungen bleibt eine der großen offenen Fragen.
So schätzen die Börsenprofis Aktien ein!
Für. Immer. Kostenlos.
