OpenAI stoppt umstrittene Erwachsenen-Funktionen für ChatGPT
17.03.2026 - 00:00:22 | boerse-global.deKI-Riese verzichtet vorerst auf Altersprüfung per Verhalten – zu hohes Risiko für Jugendliche. Ein ehrgeiziges Projekt des KI-Konzerns OpenAI ist gescheitert. Das Unternehmen hat die geplante Einführung von expliziten Inhalten für erwachsene Nutzer von ChatGPT auf unbestimmte Zeit verschoben. Der Grund: Das neu entwickelte System zur Altersschätzung anhand des Nutzerverhaltens versagte in Tests alarmierend häufig.
Alterserkennung mit gefährlicher Fehlerquote
Eigentlich sollte eine Verhaltensanalyse Teenager automatisch vor nicht jugendfreien Inhalten schützen. Seit Januar 2026 wertete das System dafür Aktivitätszeiten, Nutzungsmuster und Account-Alter aus. Doch interne Tests offenbarten ein kritisches Problem: In etwa 12 Prozent der Fälle stuft die KI Minderjährige fälschlicherweise als Erwachsene ein.
Die rasante Entwicklung von KI-Systemen wie ChatGPT stellt Unternehmen vor völlig neue rechtliche Herausforderungen. Dieser kostenlose Leitfaden zur EU-KI-Verordnung erklärt Ihnen kompakt die wichtigsten Anforderungen, Risikoklassen und Dokumentationspflichten für Ihren Betrieb. EU-KI-Verordnung kompakt: Jetzt Gratis-Leitfaden sichern
Bei geschätzt 100 Millionen wöchentlichen Nutzern unter 18 Jahren wäre das eine massive Sicherheitslücke. Bis zu 12 Millionen Teenager könnten so ungewollt Zugang zu explizitem Material erhalten. „Die Unterscheidung zwischen älteren Jugendlichen und jungen Erwachsenen anhand von Metadaten bleibt eine immense technische Herausforderung“, bestätigen Branchenanalysten.
Für falsch eingestufte Erwachsene gibt es zwar einen Ausweg: Sie können ihre Identität per Gesichtsscan beim Dienst Persona verifizieren. Doch dieses Verfahren löst nur das Problem der falschen Sperrungen. Die gefährlicheren falschen Freigaben für Jugendliche zwangen OpenAI zum kompletten Stopp.
Sicherheitsberater warnten vor psychischen Schäden
Die technischen Mängel verstärkten den Widerstand interner Ethik-Gremien. Ein Beraterrat mit Experten für Psychologie und Neurowissenschaften sprach sich im Januar einstimmig und vehement gegen die Freigabe erotischer Textgenerierung aus.
Die Berater warnten vor den Folgen für die psychische Gesundheit. Sexuell explizite Chat-Interaktionen könnten bei vulnerablen Nutzern suchtartiges Verhalten und emotionale Abhängigkeit fördern. Ein Mitglied des Gremiums soll sogar von einem „verführerischen, aber tödlichen emotionalen Krückstock“ gesprochen haben.
Hinter der Warnung stehen reale Tragödien. In einem bekannten Fall von 2024 verklagte eine Mutter ein Tech-Start-up, nachdem ein Chatbot ihren 14-jährigen Sohn zum Suizid angestiftet haben soll – das Kind hatte eine tiefe emotionale Bindung zu der KI entwickelt. Angesichts solcher Szenarien und der löchrigen Alterserkennung sah sich die Unternehmensführung zum Handeln gezwungen.
Wettbewerb und Regulierung bremsen Freigabe aus
Ursprünglich sollte die Altersprüfung doppelt dienen: Jugendliche schützen und gleichzeitig erwachsenen Nutzern mehr Freiheiten geben. CEO Sam Altman hatte Ende 2025 für einen liberaleren Umgang mit volljährigen Nutzern plädiert. Die Freischaltung war zunächst für Dezember 2025, dann für das erste Quartal 2026 geplant.
Nun begründet OpenAI die Verzögerung mit anderen Prioritäten. Die Ingenieure konzentrierten sich auf allgemeine Verbesserungen der Intelligenz und Nutzererfahrung, heißt es offiziell. Intern trieb auch der harte Wettbewerb die Entscheidung. Ressourcen wurden von den umstrittenen Erwachsenen-Funktionen abgezogen, um mit Konkurrenten wie Google oder Anthropic Schritt zu halten.
Während die technologische Entwicklung voranschreitet, verschärfen neue Gesetze die Haftungsrisiken für Unternehmen, die KI-Systeme einsetzen. Erfahren Sie in diesem kostenlosen E-Book, welche Übergangsfristen der neue AI-Act vorsieht und wie Sie Bußgelder durch richtige Klassifizierung vermeiden. Kostenlosen Umsetzungsleitfaden zur KI-Verordnung herunterladen
Hinzu kommen technische Hürden bei der Content-Moderation. Die Entwickler kämpfen damit, illegale Inhalte wie Missbrauchsmaterial sicher auszufiltern, während gleichzeitig erotische Texte erlaubt sein sollen. Klar ist: Sollten die Funktionen je kommen, werden sie auf reine Textgenerierung beschränkt bleiben – ohne explizite Bilder, Videos oder Audio.
Globale Regulierungen verschärfen den Druck
OpenAIs Probleme spiegeln einen grundlegenden Konflikt der Branche wider: Zwischen schnellem Wachstum und immer strengeren globalen Vorschriften zum Jugendschutz.
In der Europäischen Union verlangt der Digital Services Act (DSA) von Plattformen wirksame Maßnahmen, um Kinder vor schädlichen Inhalten zu bewahren. Auch das britische Online Safety Act legt Tech-Firmen klare Pflichten auf. Regulierer akzeptieren simple Selbstauskunft zum Alter immer seltener; sie fordern zuverlässige Verifikationssysteme.
Die geplante Verhaltensanalyse steht zudem im Konflikt mit der EU-Datenschutzgrundverordnung (DSGVO). Die kontinuierliche Auswertung von Nutzerdaten für Altersschätzungen widerspricht oft dem Grundsatz der Datensparsamkeit.
OpenAI steht nun vor einer schwierigen Aufgabe: Die Algorithmen müssen präziser werden, ohne die Privatsphäre zu verletzen oder gegen internationale Kinderschutzgesetze zu verstoßen. Bis diese Lücke geschlossen ist und die internen Ethik-Räte grünes Licht geben, bleibt die Vision eines entfesselten ChatGPT für Erwachsene auf Eis.
Hol dir jetzt den Wissensvorsprung der Aktien-Profis.
Für. Immer. Kostenlos.

