Cyberkriminalität, Stimmen

Cyberkriminalität: KI klont Stimmen für neue Betrugsmasche

10.12.2025 - 02:13:12

Behörden warnen vor einer neuen Qualität des Betrugs, bei dem KI-geklonte Stimmen und gefälschte Behörden gezielt frühere Opfer erneut schädigen. Die Täter nutzen präzise Daten und automatisierte Strukturen.

Cyberkriminelle setzen jetzt auf KI-geklonte Stimmen und gefälschte Behördenmitarbeiter. Die Verbraucherzentralen und das Landeskriminalamt warnen vor einer neuen Qualität der Täuschung – besonders perfide: Betrüger zielen gezielt auf Menschen ab, die bereits einmal Opfer wurden.

Recovery Scam: Doppelt abgezockt

Das LKA Niedersachsen schlägt Alarm wegen einer zynischen Masche: Betrüger kontaktieren Menschen, die bereits Geld verloren haben, und geben sich als Polizisten oder Anwälte aus. Ihr Versprechen: Sie holen das verlorene Geld zurück – gegen eine “Bearbeitungsgebühr”.

Die Täter kennen oft präzise Details zum ursprünglichen Betrug: Schadenshöhe, Datum, manchmal sogar Namen der echten Ermittler. Diese Informationen stammen häufig aus denselben kriminellen Netzwerken, die bereits den ersten Betrug durchführten.

Anzeige

Passend zum Thema Smartphone- und Anrufbetrug: Viele Nutzer kennen nicht die wichtigsten Schutzschritte gegen Smishing, KI-gestützte Stimmfälschungen und manipulierte WhatsApp-Verknüpfungen. Das kostenlose Sicherheitspaket erklärt die 5 wichtigsten Maßnahmen für Android – mit Schritt-für-Schritt-Anleitungen, Checkliste und praktischen Screenshots für WhatsApp-, Banking- und PayPal-Sicherheit. Setzen Sie die Maßnahmen sofort um und senken Sie das Risiko von Kontenübernahmen deutlich. Gratis-Sicherheitspaket für Android herunterladen

Die Warnung der Behörden ist eindeutig: Keine echte Polizeidienststelle fordert Gebühren per WhatsApp. Keine seriöse Kanzlei verlangt Vorauszahlungen für Geldwiederherstellung. Wer sich meldet, ist mit höchster Wahrscheinlichkeit ein weiterer Betrüger.

Wenn die Stimme des Sohnes am Telefon lügt

Der klassische Schockanruf hat durch KI eine beängstigende Evolution durchlaufen. Statt fremder Stimmen hören Opfer jetzt täuschend echte Klone ihrer Angehörigen. Wenige Sekunden Audiomaterial aus TikTok-Videos oder Instagram-Stories reichen aus.

Die neue Variante: Das Opfer nimmt ab und hört die vertraute, schluchzende Stimme des eigenen Kindes. Sekunden später übernimmt ein angeblicher Polizist und fordert sofortige Kautionszahlung wegen eines schweren Unfalls.

Die “Ja”-Falle läuft parallel weiter: Betrüger fragen “Hören Sie mich?” und zeichnen die Bestätigung auf. Diese Audioschnipsel werden später in gefälschte Vertragsabschlüsse montiert. Die Bundesnetzagentur rät: Bei unbekannten Nummern keine bestätigenden Antworten geben.

Smishing: Der Feind im eigenen Chat

Besonders gefährlich wird es, wenn betrügerische SMS in legitimen Chatverläufen auftauchen. Durch Sender-ID-Spoofing erscheinen gefälschte Nachrichten direkt unter echten Bestätigungscodes von Banken oder Paketdiensten.

Das Smartphone kann die gefälschte Absenderkennung nicht von der echten unterscheiden. Eine SMS mit “Sicherheitsupdate für PushTAN erforderlich” reiht sich nahtlos unter die echten TAN-Codes der letzten Wochen ein.

Aktuelle Varianten zielen auf:

  • Paketdienste: Angebliche Zollgebühren mit Link zu Phishing-Seiten
  • Banken: Vorgetäuschte Sicherheitsupdates zum Abgriff von Zugangsdaten
  • WhatsApp: Fake-Verifizierungen, die das Konto als “Begleitgerät” mit dem Betrüger-Smartphone koppeln und vollen Zugriff gewähren

Crime-as-a-Service: Die Industrialisierung des Betrugs

Die aktuelle Welle unterscheidet sich fundamental von früheren Angriffen. Organisierte Banden betreiben professionelle “Crime-as-a-Service”-Strukturen mit hohem Automatisierungsgrad.

Zwei Faktoren beschleunigen diese Entwicklung: Frische Datensätze aus Leaks zeigen den Kriminellen präzise, wer kürzlich wo Geld verloren hat. Gleichzeitig senkt KI die Einstiegshürde massiv – Echtzeit-Übersetzer und Textgeneratoren liefern fehlerfreies Deutsch, unabhängig vom tatsächlichen Standort der Täter.

Das BSI betont: Technische Schutzmechanismen wie Spam-Filter werden zwar besser, doch der “Faktor Mensch” bleibt das Hauptziel. Und genau dort setzen die Betrüger an.

Was jetzt zu tun ist

Experten erwarten für die kommenden Monate Deepfake-Videoanrufe, bei denen nicht nur die Stimme, sondern auch das Gesicht gefälscht wird. Passives Verhalten reicht nicht mehr aus.

Drei essenzielle Schutzmaßnahmen:

Code-Wort vereinbaren: Familien sollten ein geheimes “Safe Word” festlegen, das bei Notfällen am Telefon abgefragt wird. Eine KI kennt dieses Wort nicht.

Rückruf-Regel konsequent anwenden: Bei Anrufen von angeblichen Behörden oder Banken sofort auflegen. Die offizielle Nummer selbst heraussuchen und dort zurückrufen – niemals die Rückruffunktion nutzen.

Messenger-Hygiene: Wöchentlich in WhatsApp unter “Verknüpfte Geräte” prüfen, ob unbekannte Computer oder Tablets gelistet sind. Diese sofort entfernen.

Die Ära des sorglosen Telefonierens ist vorbei. Wer heute das Smartphone abhebt, kommuniziert möglicherweise nicht mit einem Menschen, sondern mit einem hochintelligenten Algorithmus. Sein einziges Ziel: Zugriff auf Ihr Vermögen.

Anzeige

PS: Sie möchten verhindern, dass Betrüger per Deepfake oder Smishing Ihr Konto kapern? Holen Sie sich den Gratis-Ratgeber: Er zeigt leicht verständlich, welche Einstellungen in WhatsApp & Android Sie sofort prüfen sollten, wie Sie Phishing-Links erkennen und wie regelmäßige Geräte-Checks unberechtigte Zugriffe stoppen. Ideal für alle, die ihre digitale Identität und ihr Geld schützen wollen. Jetzt gratis Android-Schutzpaket anfordern

@ boerse-global.de