Beschuss, Britische

X unter Beschuss: Britische Aufsicht ermittelt gegen KI-Chatbot Grok

17.01.2026 - 00:16:12

Die britische Medienaufsicht Ofcom leitet eine formelle Untersuchung gegen X ein, nachdem der KI-Chatbot Grok für die Erstellung illegaler Inhalte missbraucht worden sein soll. Dies ist ein erster Testfall für das neue Online Safety Act.

Die britische Medienaufsicht Ofcom hat eine formelle Untersuchung gegen die Plattform X eingeleitet. Grund sind schwere Vorwürfe, dass der KI-Chatbot Grok zur Erstellung illegaler, sexuell expliziter Inhalte missbraucht wurde. Dieser Fall wird zum ersten großen Test für das neue britische Online Safety Act und könnte weltweit Maßstäbe für die Regulierung generativer KI setzen.

Ofcom prüft Verstoß gegen neues Sicherheitsgesetz

Im Zentrum der Ermittlungen steht die Frage, ob X seinen Pflichten aus dem Online Safety Act nachgekommen ist. Die Behörde reagiert auf alarmierende Berichte, wonach Nutzer Grok zur Erstellung von nicht-einvernehmlichen intimen Bildern (Deepfakes) und sogar von Kinderpornografie (CSAM) verwendet haben sollen. Ofcom hatte X bereits Anfang Januar aufgefordert, seine Schutzmaßnahmen darzulegen. Nach Prüfung der Antwort sah die Behörde nun Anlass für eine formelle Untersuchung. Geprüft werden unter anderem, ob X vor der Einführung von Grok eine ausreichende Risikobewertung vornahm und ob wirksame Systeme zur Verhinderung und Entfernung illegaler Inhalte existieren.

Politischer Sturm und erste Reaktion von X

Der Untersuchung ging ein massiver öffentlicher und politischer Aufschrei voraus. Technologieministerin Liz Kendall sicherte Ofcom die volle Unterstützung der Regierung zu – inklusive der Option, eine Sperrung des Dienstes in Großbritannien zu verfolgen. Premierminister Keir Starmer verurteilte die generierten Bilder als “widerlich” und “rechtswidrig”. Unter diesem Druck reagierte X: Das Unternehmen schränkte die Bildgenerierungsfunktion auf zahlende Abonnenten ein und kündigte weitere technische Maßnahmen an, um die Erstellung intimer Bilder zu unterbinden. Ofcom begrüßte diese Schritte, betonte aber, dass die formelle Untersuchung dennoch mit Hochdruck weitergeht.

EU zieht parallel nach – ein globales Problem

Die Kontroverse ist längst kein britisches Alleinstellungsmerkmal mehr. Malaysia hat den Zugang zu Grok vorübergehend gesperrt und rechtliche Schritte angekündigt. Parallel zu Ofcom hat auch die Europäische Kommission Untersuchungen eingeleitet. Sie prüft, ob X gegen die europäischen Digital Services Act (DSA) verstößt, und hat das Unternehmen angewiesen, alle relevanten internen Dokumente zu Grok aufzubewahren. Ein EU-Sprecher nannte die Erstellung von Missbrauchsdarstellungen durch KI “illegal und inakzeptabel”. Die international koordinierten Ermittlungen zeigen: Die Regulierung von KI-Systemen ist eine globale Herausforderung.

Anzeige

Passend zum Thema Regulierung generativer KI — die EU-KI-Verordnung bringt seit August 2024 neue Pflichten für Kennzeichnung, Risikoklassifizierung und Dokumentation von KI-Systemen. Wer jetzt nachprüfen muss, welche Vorgaben gelten und wie man sie umsetzt, findet im kostenlosen Umsetzungsleitfaden klare Antworten: Welche Nachweise nötig sind, welche Fristen gelten und wie Sie Ihr System rechtssicher einordnen. Jetzt kostenlosen KI-Umsetzungsleitfaden herunterladen

Präzedenzfall mit Milliarden-Strafe droht

Die Untersuchung gilt als wegweisender Testfall. Sollte Ofcom einen Verstoß feststellen, drohen X drakonische Strafen. Das Gesetz sieht Bußgelder von bis zu 18 Millionen Pfund oder 10 Prozent des weltweiten Jahresumsatzes vor – je nachdem, welcher Betrag höher ist. Bei X, das zuletzt einen Umsatz von rund 3,4 Milliarden Euro meldete, könnte die Summe im schlimmsten Fall also bei über 300 Millionen Euro liegen. In extremen Fällen kann die Behörde sogar gerichtlich eine Sperrung der Plattform in Großbritannien durchsetzen. Die Kernfrage lautet: In welchem Maße sind Plattformen für die Ergebnisse ihrer eigenen KI-Tools verantwortlich?

Was kommt als Nächstes?

Ofcom treibt die Ermittlungen mit Priorität voran. Der nächste Schritt ist die umfassende Sammlung und Analyse von Beweismitteln. Sollte die Behörde zu einem negativen Urteil kommen, wird sie X eine vorläufige Entscheidung vorlegen. Das Unternehmen hätte dann noch einmal Gelegenheit zur Stellungnahme, bevor ein finaler Bescheid und mögliche Sanktionen folgen. Der Ausgang dieses Verfahrens wird weltweit beobachtet. Er könnte entscheidend beeinflussen, wie Plattformen künftig mit den Risiken ihrer eigenen Generativen KI umgehen müssen. Die Regulierer senden eine klare Botschaft: Technologie-Riesen können sich nicht länger hinter der Neuartigkeit ihrer Tools verstecken.

@ boerse-global.de