KI-Stimmenbetrug erreicht neue Dimension
12.03.2026 - 00:30:20 | boerse-global.deBetrüger automatisieren ihre Anrufe jetzt als Dienstleistung. Sicherheitsforscher deckten diese Woche gleich zwei gravierende Entwicklungen auf: eine Plattform für automatisierte Betrugsanrufe und ein globales Netzwerk mit Deepfake-Werbung. Die Schäden gehen in die Millionen. Als Gegenmaßnahme entwickeln Start-ups nun Echtzeit-Scanner fürs Smartphone.
„Vishing-as-a-Service“ senkt die Einstiegshürde
Das Sicherheitsunternehmen Mirage Security beschrieb kürzlich die Plattform „p1bot“. Diese browserbasierte Software bietet Voice-Phishing – kurz Vishing – als Abo an. Kriminelle können damit Telefonnummern fälschen und KI-Sprachansagen erstellen.
Viele Android-Nutzer übersehen diese 5 Sicherheitsmaßnahmen, die das Smartphone vor den immer raffinierteren Methoden der Internet-Kriminalität schützen. Dieser Gratis-Ratgeber zeigt Ihnen mit einfachen Schritt-für-Schritt-Anleitungen, wie Sie WhatsApp, Banking & Co. effektiv absichern. Kostenloses Android-Sicherheitspaket jetzt anfordern
Die Technologie etablierter KI-Anbieter wird hier missbräuchlich genutzt. Automatisierte Systeme rufen Opfer an und geben sich mit natürlicher KI-Stimme als Bankmitarbeiter aus. Sie behaupten, das Konto sei kompromittiert, und fordern zum Drücken der Taste 1 auf. Wer folgt, wird um Daten oder Geld gebracht. Dieses Abomodell macht Betrug massentauglich.
Meta-Anzeigen mit Deepfake-Promis locken Opfer
Parallel nutzen Betrüger die Reichweite sozialer Netzwerke. Forscher von Bitdefender legten die Strukturen eines internationalen Investment-Betrugssystems offen. Ihre Analyse dokumentiert über 26.000 schädliche Anzeigen auf Meta-Plattformen wie Facebook und Instagram.
Die Werbung verwendet Deepfakes und Stimmklone von Prominenten. Im deutschsprachigen Raum warben täuschend echte KI-Versionen von Herbert Grönemeyer oder SAP-Gründer Hasso Plattner für Krypto-Investments. Interessierte, die ihre Daten hinterlassen, werden schnell von vermeintlichen Brokern angerufen. Diese Telefonate setzen unter Druck, hohe Summen zu überweisen. Die Schäden sind historisch.
Schockanrufe: Die perfide Masche mit der vertrauten Stimme
Eine besonders hinterhältige Methode zielt auf das private Umfeld ab. Bei sogenannten Schockanrufen geben sich Kriminelle als in Not geratene Verwandte aus. Voice-Cloning hat diese Masche perfektioniert.
Bereits wenige Sekunden Audio aus einem Social-Media-Post genügen moderner KI. Sie imitiert Klangfarbe, Dialekt und Sprechweise täuschend echt. Die Betrüger simulieren dann Unfälle, Verhaftungen oder medizinische Notfälle. Künstliche Hintergrundgeräusche wie Sirenen verstärken die Panik. Weil die Stimme exakt wie die des Kindes klingt, schalten Opfer ihren Verstand oft aus und überweisen hastig Geld.
Echtzeit-Scanner sollen das Smartphone schützen
Die Technologiebranche arbeitet an Gegenmaßnahmen. Das Schweizer Start-up Aurigin.ai entwickelte einen Scanner für Telefonate. Die Software analysiert den eingehenden Audiostream in Echtzeit während eines Gesprächs.
Da Kriminelle immer häufiger auf psychologische Tricks und technische Lücken setzen, reichen einfache Software-Updates allein oft nicht mehr aus. Erfahren Sie in diesem kompakten Leitfaden, welche fünf Maßnahmen Ihr Smartphone spürbar sicherer machen und eine häufig unterschätzte Lücke schließen. 5 sofort umsetzbare Schutzmaßnahmen entdecken
Sie sucht nach für Menschen unhörbaren Artefakten einer synthetischen Stimme. Wird eine KI-Stimme erkannt, warnt das System den Nutzer sofort. Derzeit testen vor allem Banken die Technologie, um CEO-Betrug zu verhindern. Dabei verleiten geklonte Chefs-Stimmen Mitarbeiter zu Millionenüberweisungen. Beobachter erwarten, dass solche Audio-Scanner bald Standard in Smartphone-Betriebssystemen werden.
Warum KI-Betrug so gefährlich ist
Die breite Verfügbarkeit generativer KI gibt Social-Engineering-Angriffen neue Schlagkraft. Kriminelle können Kommunikation passgenau automatisieren. Risikoexperten stufen künstliche Intelligenz mittlerweile als eine der größten Cyber-Gefahren ein.
Die besondere Tücke liegt in der Psychologie. Menschen vertrauen den Stimmen von Angehörigen oder Vorgesetzten blind. Während Phishing-Mails oft auffliegen, hebelt ein emotionaler Anruf mit vertrauter Stimme den gesunden Menschenverstand aus. Technische Filter allein werden nicht reichen – das Bewusstsein für die Täuschung muss wachsen.
Hol dir jetzt den Wissensvorsprung der Aktien-Profis.
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Aktien-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
Für immer kostenlos

