Australiens, Regulator

Australiens Regulator greift X wegen KI-Pornografie hart an

18.01.2026 - 04:21:12

Australiens Online-Sicherheitsbehörde geht mit aller Härte gegen die KI-Bildgenerierung des sozialen Netzwerks X vor. Der Grund: Nutzer missbrauchen das Tool Grok, um nicht einvernehmliche Pornografie und sogar Kinder-Material zu erzeugen. Die Aufsicht droht nun mit Abmahnungen und hohen Strafen – ein Präzedenzfall für die KI-Regulierung weltweit.

Die eSafety Commissioner, Julie Inman Grant, bestätigte zwei laufende Ermittlungen. Sie untersucht, wie Grok zur Erstellung sexualisierter Deepfakes realer Personen genutzt wird. Einige Inhalte könnten sogar die Schwelle zur Kinderausbeutung überschreiten. Seit Ende 2025 sei die Zahl der Beschwerden explosionsartig gestiegen. Die Behörde forderte X ultimativ auf, seine Schutzmaßnahmen offenzulegen.

Im Kern geht es um die nahezu uneingeschränkten Bildbearbeitungsfähigkeiten der KI. Nutzer fanden heraus, dass sich Grok anweisen lässt, Personen auf Fotos zu „entkleiden“. So entstanden massenhaft nicht einvernehmliche pornografische Deepfakes. Der Skandal erreichte eine neue Dimension, als sich zeigte, dass die Technologie auch für die Generierung von Missbrauchsdarstellungen Minderjähriger genutzt werden kann.

Anzeige

Passend zum Thema Grok und regulatorische Maßnahmen — seit August 2024 gelten neue EU-Vorschriften zur KI. Viele Plattformbetreiber und Entwickler riskieren Bußgelder, wenn Kennzeichnungspflichten, Risikoklassifizierung und Dokumentationsanforderungen nicht erfüllt sind. Ein kostenloser Umsetzungsleitfaden erklärt kompakt, welche Pflichten jetzt gelten, wie Sie KI-Systeme korrekt einstufen und erste Compliance-Schritte praktisch umsetzen. Jetzt kostenlosen KI-Umsetzungsleitfaden herunterladen

„Tools wie Grok können sexuelle Belästigung und Missbrauch industrialisieren“, warnt die eSafety Commissioner. Die Behörde prüft die Vorfälle nach zwei Schemata: Bildbasierter Missbrauch bei Inhalten mit Erwachsenen und illegale Inhalte bei Verdacht auf Kinderpornografie. Ihr Argument ist klar: Australisches Recht verpflichtet Plattformen, Nutzer vor illegalem Material zu schützen – egal ob von Menschen oder KI erstellt.

Australien setzt das Online Safety Act durch

Die Behörde handelt auf Grundlage des strengen Online Safety Act von 2021. Dieses Gesetz ermächtigt sie, Plattformen offizielle Entfernungsanordnungen zu erteilen. Bei Nichtbefolgung drohen hohe Geldstrafen. „Wir zögern nicht, diese Befugnisse gegen X einzusetzen“, so die Kommissarin.

Bereits 2025 ging die Behörde erfolgreich gegen „Nudify“-Dienste vor, die sich daraufhin aus Australien zurückzogen. Der Fall Grok ist jedoch eine neue Stufe: Er testet die Gesetze an einer globalen Social-Media-Plattform mit integrierter KI. Ab dem 9. März 2026 verschärft sich die Lage weiter. Dann treten verbindliche Regeln für KI-Dienste in Kraft, die den Zugang Minderjähriger zu schädlichen Inhalten stark begrenzen müssen.

X zwischen Blockaden und Beschwichtigungen

Unter internationalem Druck – auch aus Großbritannien, Europa und Asien – reagierte X halbherzig. Das Unternehmen gab an, technische Hürden eingebaut zu haben. So soll Grok nun keine Bilder von realen Personen in Badebekleidung mehr bearbeiten können. Die Bildgenerierung ist zudem auf zahlende Nutzer beschränkt. In einigen Ländern, in denen die Erstellung bestimmter Bilder illegal ist, will X die Funktion per Geoblocking sperren.

Doch diese Schritte wirken auf Regulierer wie Stückwerk. Besonders der Ton aus dem X-Lager trägt nicht zur Deeskalation bei. Eigentümer Elon Musk deutete Kritik bereits als Angriff auf die Meinungsfreiheit. Auf Medienanfragen antwortete die Plattform teilweise mit automatisierten Floskeln wie „Lügen der Altmedien“. Die Aufseher fordern hingegen konkrete, proaktive Sicherheitsnachweise.

Ein globaler Präzedenzfall für KI-Kontrolle

Australiens Vorgehen ist Teil eines weltweiten Trends. Großbritanniens Medienaufsicht Ofcom ermittelt ebenfalls gegen Grok. Länder wie Indonesien und Malaysia haben den Dienst vorübergehend gesperrt. Die Botschaft ist eindeutig: Technologiekonzerne können mächtige KI-Tools nicht ohne eingebaute Sicherheitsvorkehrungen ausrollen.

Für X wird der Fall zur Nagelprobe. Der Konflikt stellt die grundsätzliche Frage nach dem „Safety by Design“-Prinzip: Müssen Schutzmechanismen von Anfang an im Produkt stecken – oder dürfen sie nachträglich als Reaktion auf Skandale hinzugefügt werden? Die Entscheidung in Australien wird Maßstäbe für die Regulierung generativer KI in sozialen Medien setzen.

Die kommenden Wochen sind entscheidend. X muss die australische Behörde von der Wirksamkeit seiner Sicherheitsmaßnahmen überzeugen. Gelingt das nicht, werden Abmahnungen und Strafen folgen. Der Fall zeigt die wachsende Lücke zwischen rasanter KI-Innovation und trägen Rechtsrahmen. Für Australien ist klar: Die Fürsorgepflicht der Plattformen gegenüber ihren Nutzern ist nicht verhandelbar.

Anzeige

PS: Die Übergangsfristen der EU-KI-Verordnung setzen Anbieter jetzt unter Zeitdruck. Wer Kennzeichnungspflichten, Dokumentationsanforderungen und Risikobewertungen nicht rechtzeitig umsetzt, riskiert Abmahnungen und Bußgelder — gerade Plattformen mit integrierten Bild‑ und Textgeneratoren. Ein gratis E‑Book fasst die wichtigsten Pflichten und sofort umsetzbaren Maßnahmen zusammen — ideal für Produktmanager und Betreiber generativer KI. Kostenlosen KI-Compliance-Guide anfordern

@ boerse-global.de