ChatGPT: KI-Alterserkennung soll junge Nutzer schützen
21.01.2026 - 05:24:12OpenAI führt eine automatische Alterserkennung für ChatGPT ein, um Minderjährige besser zu schützen. Der Schritt erfolgt unter wachsendem regulatorischem Druck in den USA und Europa.
Das neue System ist keine klassische Altersverifikation mit Ausweisdokumenten. Stattdessen analysiert ein KI-Modell Verhaltenssignale, um das wahrscheinliche Alter zu schätzen. Faktoren sind das Kontoalter, typische Nutzungszeiten und langfristige Interaktionsmuster. Bei Unklarheiten gilt das Vorsorgeprinzip: Es werden automatisch die strengeren Schutzvorkehrungen für unter 18-Jährige aktiviert.
Erwachsene Nutzer, die fälschlicherweise als Minderjährige eingestuft werden, können ihr Alter nachträglich bestätigen. Dafür bietet OpenAI einen Verifizierungsprozess über den Drittanbieter Persona an. Nutzer laden dort ein Selfie hoch. Laut OpenAI erhält das Unternehmen nur die Altersbestätigung, nicht die Daten selbst. Persona löscht die Verifizierungsdaten innerhalb von sieben Tagen.
Die EU-KI-Verordnung stellt neue Pflichten für Anbieter von KI-Systemen – von Risikoklassifizierung bis zur Dokumentation. Für Entwickler und Anbieter bedeutet das: jetzt handeln, Fristen beachten und Systeme korrekt einstufen. Ein kostenloses E‑Book fasst die wichtigsten Anforderungen kompakt zusammen und zeigt Schritt für Schritt, wie Sie Kennzeichnungspflichten und Dokumentationspflichten praktisch umsetzen. Kostenlosen KI-Verordnungs-Leitfaden herunterladen
Strengere Filter für Jugendliche
Wird ein Nutzer als minderjährig eingestuft, schaltet ChatGPT in einen geschützten Modus. Die KI generiert dann keine Inhalte mehr zu bestimmten sensiblen Themen. Dazu gehören explizite Gewaltdarstellungen, Selbstverletzung sowie sexuelle oder gewalttätige Rollenspiele.
Eingeschränkt werden auch Diskussionen über riskante Online-Challenges und Inhalte, die ungesunde Körperbilder oder extremes Diätverhalten fördern. Die Maßnahmen basieren auf entwicklungspsychologischer Forschung, die in Zusammenarbeit mit Fachorganisationen wie der American Psychological Association ausgewertet wurde.
Reaktion auf regulatorischen Druck
Die Einführung ist eine direkte Reaktion auf verschärfte Regulierung und Klagen. So hatte OpenAI sich in den USA Vorwürfen ausgesetzt gesehen, der Chatbot habe Minderjährigen schädliche Ratschläge gegeben. International verschärfen Staaten den Ton: Die britische Regierung erwägt ein Social-Media-Verbot für unter 16-Jährige, Australien hat verbindliche Schutzvorgaben für digitale Dienste erlassen.
Ähnliche Systeme setzen bereits Plattformen wie Roblox ein. Die Technologie steht jedoch vor einer zentralen Herausforderung: die Treffsicherheit der Altersvorhersage. OpenAI räumt ein, dass das System nicht immer korrekt liegen wird und verweist auf geplante Verbesserungen.
Die Gratwanderung zwischen Schutz und Privatsphäre
Der Schritt wird als proaktive Maßnahme vor einer möglichen, spekulativen „Adult Mode“-Funktion gesehen. Für die Branche zeigt sich ein Trend zu passiven Verifikationsmethoden als Alternative zu intrusiven Alterschecks. Die große Frage bleibt: Kann die KI zuverlässig zwischen Erwachsenen und Jugendlichen unterscheiden, ohne legitime Nutzer massenhaft einzuschränken?
Die Balance zwischen effektivem Jugendschutz und der Wahrung der Privatsphäre aller Nutzer bleibt der kritische Test für KI-Unternehmen. Für OpenAI ist die Weiterentwicklung des Systems entscheidend, um Vertrauen in der wachsenden Nutzerbasis zu halten.
PS: Unsicher, wie die neuen Regeln der EU-KI-Verordnung konkret auf Ihr Angebot wirken und welche Dokumentation jetzt nötig ist? Der kompakte Umsetzungsleitfaden erklärt Kennzeichnungspflichten, Risikoklassen und notwendige Nachweise praxisnah und ohne juristisches Fachchinesisch. Handeln Sie rechtzeitig, bevor Übergangsfristen ablaufen. Jetzt KI-Umsetzungsleitfaden kostenlos downloaden


