OpenAI, Datenskandal

OpenAI: Neuer Datenskandal um echte Arbeitsproben

12.01.2026 - 13:45:12

OpenAI fordert Auftragnehmer laut Berichten auf, echte Arbeitsdateien für KI-Training bereitzustellen, was massive rechtliche Risiken und Verstöße gegen Geheimhaltung bedeuten könnte.

OpenAI steht im Zentrum eines neuen Datenskandals. Das KI-Unternehmen soll Auftragnehmer gezielt aufgefordert haben, echte Arbeitsdokumente aus ihren Jobs hochzuladen – ein Schritt, der massive rechtliche Risiken birgt.

Berichten zufolge, die zwischen dem 10. und 12. Januar auftauchten, bittet das von Microsoft unterstützte KI-Unternehmen Drittunternehmer, konkrete Arbeitsproben aus ihrer aktuellen oder früheren Beschäftigung bereitzustellen. Ziel ist es, die Modelle mit hochwertigen, realen Daten aus dem Berufsalltag zu trainieren. Juristen und Branchenbeobachter schlagen Alarm: Diese Praxis könnte zu flächendeckenden Verstößen gegen Geheimhaltungsvereinbarungen und zum Abfluss von Geschäftsgeheimnissen führen.

Die Forderung nach „konkreten Arbeitsergebnissen“

Im Kern der Kontroverse stehen interne Anweisungen an Auftragnehmer. Medienberichten zufolge fordert OpenAI in Zusammenarbeit mit einem Datenanbieter namens Handshake AI ausdrücklich „konkrete Outputs”. Gemeint sind keine Zusammenfassungen, sondern die originalen Arbeitsdateien.

Gewünscht sind demnach echte professionelle Dokumente: Word-Dateien, Excel-Tabellen, PowerPoint-Präsentationen, PDFs und sogar Code-Repositories. Die Anweisung betont, dass es sich um Arbeiten handeln soll, die die Auftragnehmer in ihren anderen Berufsrollen „tatsächlich erledigt” haben. Damit zielt OpenAI auf die nuancenreiche Logik und Formatierung echter Unternehmensarbeit ab, die mit synthetischen Daten kaum zu imitieren ist.

Anzeige

Passend zum Thema: Die EU‑KI‑Verordnung verlangt inzwischen strenge Nachweisdokumentation, Risikoklassifizierung und Transparenz bei Trainingsdaten — Punkte, die Firmen jetzt prüfen müssen. Ein kostenloses Umsetzungs‑E‑Book erklärt praxisnah, welche Pflichten Entwickler und Datenverarbeiter haben, wie Sie KI‑Systeme richtig klassifizieren und welche Fristen gelten. Jetzt kostenlosen KI‑Verordnungs‑Leitfaden herunterladen

Um Datenschutzrisiken zu mindern, hat OpenAI angeblich ein Tool namens „Superstar Scrubbing” eingeführt. Dieses, von ChatGPT gestützte Werkzeug soll Auftragnehmern helfen, personenbezogene Daten und proprietäre Informationen zu entfernen. Doch Rechtsexperten kritisieren scharf, dass die Verantwortung für das „Säubern” sensibler Unternehmensstrategien bei den Einzelpersonen liegt – ein gefährliches Unding.

Rechtliche und ethische Minenfelder

Die Strategie ist juristisch höchst brisant. Der zentrale Vorwurf: Auftragnehmer, die nebenbei für OpenAI arbeiten, werden incentiviert, Material hochzuladen, das ihnen nicht gehört, sondern ihren Hauptarbeitgebern.

Zwar soll das Scrubbing-Tool sensible Daten entfernen. Doch die Definition eines Geschäftsgeheimnisses geht oft weit über Namen und Daten hinaus. Sie umfasst Methoden, Preisstrukturen und strategische Formulierungen. Wenn ein Auftragnehmer beurteilen soll, was vertraulich ist, öffnet das eine gewaltige Haftungslücke. Erkennt ein Konkurrent in einer „gesäuberten” Marketingstrategie dennoch die eigene, könnte der betroffene Arbeitgeber sowohl den Auftragnehmer als auch das KI-Unternehmen verklagen.

Ethisch ist die Monetarisierung von geistigem Eigentum Dritter ohne deren Wissen oder Zustimmung höchst fragwürdig. Die Bezahlung der Auftragnehmer für Daten aus ihrer Haupttätigkeit schafft einen klaren Interessenkonflikt.

Der Wettlauf um die Automatisierung von Büroarbeit

Der aggressive Zugriff auf reale Daten unterstreicht den enormen Druck auf KI-Unternehmen. Modelle sollen komplexe Büroaufgaben übernehmen. Doch die hochwertigen öffentlichen Textdaten sind Anfang 2026 weitgehend erschöpft. Die Branche stößt an eine „Datenmauer”.

OpenAIs Schritt ist eine direkte Antwort auf den Bedarf an datenintensivem „Reasoning”. Während frühere Modelle mit Internetinhalten trainiert wurden, braucht die nächste KI-Generation Einblick in konkrete Unternehmensabläufe. Eine echte Excel-Finanzplanung oder ein echter juristischer Schriftsatz liefern wertvolle Signale für Logik, Format und professionellen Ton.

Diese Entwicklung passt zu OpenAIs massiver Infrastruktur-Expansion. Erst am 9. Januar kündigte das Unternehmen eine Strategische Partnerschaft im Wert von einer Milliarde Euro mit SB Energy (SoftBank Group) an, um Energie-Infrastruktur für sein riesiges „Stargate”-Rechenzentrum zu bauen. Der parallele Push für immense Rechenleistung und hochspezifische Trainingsdaten zeigt: OpenAI rennt um die Wette, um „agentische” KI zu entwickeln, die komplette Arbeitsabläufe eigenständig ausführen kann.

Kontext: Ein riskanter Präzedenzfall

Die Enthüllung kommt zu einem heiklen Zeitpunkt für OpenAI. Das Unternehmen kämpft bereits an mehreren regulatorischen Fronten. Es sieht sich einer wiederbelebten Klage von Elon Musk gegenüber, die ein US-Bundesrichter zur Hauptverhandlung zuließ. In Europa schauen Datenschutzbehörden genau hin: Die italienische Aufsichtsbehörde verhängte erst im vergangenen Jahr eine Geldstrafe von 15 Millionen Euro wegen Problemen bei Altersverifikation und Datenverarbeitung.

Diese Strategie unterscheidet sich grundlegend von früheren Datenskandalen um Urheberrecht. Hier geht es nicht um öffentliche Artikel oder Kunstwerke, sondern um interne, nicht-öffentliche Unternehmensdaten. Entdeckt ein Großkonzern, dass interne Memos oder Code durch einen nebenberuflichen Mitarbeiter auf OpenAIs Server gelangt sind, könnte der daraus resultierende Rechtsstreit bisherige Sammelklassen in den Schatten stellen.

Die Praxis beleuchtet zudem die wachsende „Schatten-Arbeitskraft” hinter der KI-Entwicklung. Während die Algorithmen im Rampenlicht stehen, bleibt die Beschaffung hochwertiger Trainingsbeispiele durch menschliche Auftragnehmer ein kritischer – und umstrittener – Engpass.

Ausblick: Erwartbare Gegenreaktionen

Die Branche erwartet eine schnelle Reaktion der Unternehmenswelt. Compliance-Beauftragte und IT-Abteilungen werden wahrscheinlich ihre Mitarbeiterhandbücher und Überwachungssysteme aktualisieren. Explizite Verbote, Arbeitsergebnisse an KI-Trainingsplattformen zu senden, dürften zur Regel werden.

Auch Regulierungsbehörden in der EU und den USA werden aufmerksam werden. Der EU-Künstliche-Intelligenz-Akt mit seinen strengen Datengovernance-Vorschriften könnte durch diese neuen Beschaffungsmethoden auf die Probe gestellt werden. Kann OpenAI keine gültige Einwilligung der eigentlichen Eigentümer der Daten (der Arbeitgeber) nachweisen, sondern nur der Besitzer (der Auftragnehmer), drohen weitere Untersuchungen.

OpenAI hat die spezifischen Details zum „Real Work“-Programm bisher weder öffentlich bestätigt noch dementiert. Ein Sprecher lehnte einen Kommentar zu den ersten Berichten ab. Die Tech-Welt wartet auf eine offizielle Stellungnahme zu einer Debatte, die eine der prägendsten im Bereich Datenethik des Jahres 2026 werden könnte.

Anzeige

PS: Unternehmen, die KI mit echten Arbeitsdaten trainieren, stehen besonders im Fokus – fehlende Dokumentation oder falsche Risikoeinschätzung können zu hohen Strafen führen. Unser kompakter Gratis‑Leitfaden zur EU‑KI‑Verordnung zeigt Schritt für Schritt, wie Sie Compliance sicherstellen, Kennzeichnungspflichten erfüllen und Übergangsfristen einhalten. Gratis‑Leitfaden zur EU‑KI‑Verordnung anfordern

@ boerse-global.de