Betrügerische KI-Apps nutzen Lücke nach Grok-Sperre
23.01.2026 - 12:01:12Nach Sperren für Deepfake-KI schießen betrügerische „Nudify“-Apps wie Pilze aus dem Boden. Sicherheitsexperten warnen vor Malware, die sich als unzensierte Alternativen tarnt.
Die jüngsten Restriktionen gegen KI-generierte Nacktbilder haben ein gefährliches Vakuum geschaffen. Seit Plattformen wie X (ehemals Twitter) ihre KI Grok Anfang Januar entschärft haben, überschwemmen betrügerische Anwendungen Soziale Medien und dubiose App-Stores. Sie versprechen, was reguläre Dienste blockieren: das „Entkleiden“ von Fotos realer Personen ohne deren Einwilligung.
Regulierung treibt Nutzer in die Falle
Auslöser der Krise war der Skandal um die KI Grok. Eine virale Aktion mit dem Hashtag „#PutHerInABikini“ hatte gezeigt, wie leicht sich damit nicht-einvernehmliche pornografische Bilder generieren ließen – tausende pro Stunde. Unter dem Druck von Regulierern in der EU und Großbritannien zog X Mitte Januar die Notbremse und blockierte entsprechende Anfragen.
Doch das Verbot verfehlte einen Teil seiner Wirkung. „Wir sehen einen klassischen Verdrängungseffekt“, heißt es in einem Bericht der VIPRE Security Group. „Wenn legale Plattformen Lücken schließen, wandern Nutzer in die Grauzonen ab, in denen Cyberkriminelle schon auf sie warten.“ Die Nachfrage ist immens: Allein Grok verzeichnete auf dem Höhepunkt über 6.000 entsprechende Anfragen pro Stunde.
Passend zum Thema Cyber-Angriffe: Ein kostenloser Leitfaden zeigt, wie Unternehmen und Privatpersonen sich gegen Phishing, Info‑Stealer und manipulierte App‑Berechtigungen schützen können. Der Report „Cyber Security Awareness Trends“ fasst aktuelle Bedrohungen, praxiserprobte Schutzmaßnahmen und leicht umsetzbare Checklisten zusammen – inklusive konkreter Hinweise zu KI‑basierten Angriffsmethoden. Besonders nützlich für IT‑Verantwortliche und Entscheider, die schnell Maßnahmen umsetzen wollen. Der Leitfaden ist kostenfrei und sofort als Download verfügbar. Jetzt kostenlosen Cyber-Security-Report herunterladen
„Grok Unlocked“ – oft nur Schadsoftware im Mantel
Die gefährliche Alternative lauert in Apps mit Namen wie „Grok Unlocked“ oder „DeepNude 2026“. Sie werden in Telegram-Gruppen oder auf Discord beworben. Doch viele dieser Tools sind gar keine funktionierende KI, sondern raffinierte Transportmittel für Malware.
Zu den identifizierten Schadprogrammen zählen:
* Info-Stealer: Trojaner wie „Lumma Stealer“, die Passwörter, Kryptowallet-Schlüssel und Session-Cookies vom Gerät des Opfers stehlen.
* KI-native Malware: Eine besorgniserregende Entwicklung, die bereits für 2026 prognostiziert wurde. Diese Programme tarnen sich als Bildbearbeitungssoftware, passen aber ihren Code an, um Erkennung zu vermeiden, und untergraben die Systemsicherheit.
* Sextortionware: Einige Apps fordern unter dem Vorwand der „Bildverarbeitung“ Zugriff auf die Fotogalerie und Kontakte, um persönliche Daten für Erpressungsversuche zu stehlen.
EU und UK verschärfen Gesetze massiv
Parallel zur Betrugswelle schreiten die Regulierer ein – mit historischen Entscheidungen. Die britische Regierung kündigte an, nicht nur die Erstellung nicht-einvernehmlicher intimer Bilder unter Strafe zu stellen, sondern auch die Bereitstellung der Tools dafür. Ein entsprechender Passus soll ins Crime and Policing Bill aufgenommen werden.
„Wir müssen das Problem an der Wurzel packen“, begründete Wissenschaftsministerin Liz Kendall den Vorstoß. Die Kontrollbehörde Ofcom untersucht zudem, ob X beim ersten viralen Ausbruch gegen den Online Safety Act verstoßen hat.
Auch die EU ist alarmiert. Die EU-Kommission hat X angewiesen, alle internen Dokumente zu den Bildgenerierungs-Protokollen von Grok bis Ende 2026 aufzubewahren. Dies deutet auf eine mögliche Untersuchung nach dem Digital Services Act (DSA) hin, der große Plattformen zu Risikomanagement verpflichtet.
So funktionieren die Betrugsmaschen
Die gefälschten Apps setzen oft auf „Vibe Coding“ – oberflächlich generierten Code, der eine funktionale Software vortäuscht, ohne sie zu sein. Nach dem Download fordern sie umfangreiche Berechtigungen, etwa für „Barrierefreiheitsdienste“ auf Android. Diese erlauben es der Malware, gefälschte Login-Masken über Banking-Apps zu legen oder Zwei-Faktor-Authentifizierungscodes auszulesen.
Eine andere Masche sind Phishing-Seiten. Nutzer laden ein Foto hoch und zahlen eine angebliche „Bearbeitungsgebühr“. Es wird kein Bild generiert, stattdessen werden die Kreditkartendaten gestohlen.
Was Nutzer jetzt beachten müssen
Sicherheitsexperten raten zu äußerster Vorsicht:
* Dritte App-Stores meiden: KI-Tools nicht aus unbekannten Quellen herunterladen, insbesondere nicht von anonymen Telegram-Kanälen.
* Berechtigungen prüfen: Bei jeder Bildbearbeitungs-App misstrauisch sein, die Zugriff auf Kontakte, Nachrichten oder Barrierefreiheitsdienste verlangt.
* Quelle verifizieren: Seriöse KI-Firmen haben ethische Richtlinien. Jede App, die behauptet, diese zu umgehen, ist mit hoher Wahrscheinlichkeit Betrug.
Die Entwicklung zeigt: Das Zeitalter der Selbstregulierung für generative KI geht zu Ende. Während die Politik nachschärft, verlagert sich der Markt für missbräuchliche Tools in den Untergrund – und wird für ahnungslose Nutzer immer gefährlicher.
PS: Diese Betrugswelle trifft nicht nur einzelne Nutzer – sie hat auch rechtliche und organisatorische Folgen. Unser kostenloser Leitfaden erklärt, welche neuen KI‑Regeln und Compliance‑Risiken Firmen jetzt beachten müssen und nennt sofort umsetzbare Abwehrmaßnahmen gegen Deepfake‑Apps, Erpressung und Phishing. Ein kurzer Praxisleitfaden, der Verantwortlichen Klarheit verschafft. Ideal für Führungskräfte und IT‑Teams, die schnell die wichtigsten Prioritäten setzen wollen. Jetzt kostenlosen Leitfaden zur IT-Sicherheit herunterladen


