KI-Betrüger nutzen Deepfake-Videoanrufe für Identitätsraub
06.03.2026 - 21:00:41 | boerse-global.deInternationale Cybersicherheitsbehörden warnen eindringlich vor einer neuen Betrugswelle. Kriminelle nutzen künstliche Intelligenz, um in Echtzeit manipulierte Videoanrufe zu tätigen. Ihr Ziel: Einmalpasswörter und biometrische Daten abgreifen. Die traditionelle Annahme, ein Live-Videoanruf beweise die Identität, ist damit hinfällig.
Mehr als 70 Prozent der Verbraucher betroffen
Die Dimension des Problems zeigt eine aktuelle Umfrage von Bitdefender. Demnach waren über sieben von zehn Verbrauchern im letzten Jahr mit Betrugsversuchen konfrontiert. Für 37 Prozent sind KI-gestützte Maschen wie Deepfake-Anrufe die größte Sorge. Diese Angst ist berechtigt. US-Analysen verzeichnen binnen zwei Jahren einen Anstieg der Deepfake-Vorfälle um rund 3.000 Prozent.
Moderne Betrugsmaschen zielen immer häufiger auf mobile Endgeräte ab, um sensible Zugangsdaten direkt abzugreifen. Wie Sie Ihr Smartphone mit einfachen Schritten gegen Datendiebe und Schadsoftware absichern, erfahren Sie in diesem kostenlosen Ratgeber. 5 sofort umsetzbare Schutzmaßnahmen entdecken
Auch Strafverfolgungsbehörden in Kanada und Indien gaben kürzlich Warnungen heraus. Betrüger imitieren täuschend echt Führungskräfte, Bankberater oder Familienmitglieder. Sie nutzen diese digitalen Klone in Videoanrufen, um sensible Informationen zu erpressen.
So funktioniert die perfide Masche
Der Angriff beginnt oft mit einem unerwarteten Videoanruf über Messenger-Dienste. Das Opfer sieht ein vertrautes Gesicht – doch es ist ein Deepfake. KI-gestützte Software legt Gesichtszüge in Echtzeit über das des Betrügers und imitiert die Stimme täuschend echt.
Im Gespräch erzeugen die Täter künstliche Dringlichkeit. Sie behaupten etwa ein Sicherheitsproblem mit dem Bankkonto. Unter Stress sollen Opfer dann empfangene Einmalpasswörter (OTPs) in die Kamera halten oder vorlesen. Doch das ist nur das erste Ziel.
Während des gesamten Anrufs zeichnen die Kriminellen hochauflösende Bilder der Gesichtsbewegungen und Sprachproben auf. Diese biometrischen Daten verwenden sie später, um digitale Klone zu erstellen. Mit diesen synthetischen Identitäten umgehen sie dann biometrische Sicherheitskontrollen von Banking-Apps.
Auch Großunternehmen im Visier
Die Angriffe treffen längst nicht mehr nur Privatpersonen. Ein dokumentierter Fall aus Hongkong zeigt das Risiko für Unternehmen: Ein Finanzmitarbeiter überwies etwa 25 Millionen US-Dollar an Betrüger. Zuvor hatte er an einem Videoanruf teilgenommen, in dem mehrere Führungskräfte durch Deepfakes simuliert wurden.
Besonders im geschäftlichen Umfeld führen raffinierte Hacker-Methoden und Phishing-Angriffe aktuell zu Rekordschäden. Dieser Experten-Guide unterstützt Sie dabei, psychologische Angriffsmuster zu erkennen und Ihr Unternehmen in vier Schritten wirksam zu schützen. Kostenloses Anti-Phishing-Paket jetzt herunterladen
Die Technologie ist inzwischen für viele Kriminelle erschwinglich. Die Kosten für die Erstellung solcher KI-Inhalte sind drastisch gesunken. Täter durchforsten massenhaft Social-Media-Profile nach Trainingsmaterial für ihre Deepfakes.
Die Strafverfolgung steht vor großen Herausforderungen. Tätergruppen agieren häufig aus dem Ausland und die technische Beweisführung ist komplex. Ein aktueller Bericht des Deutschen Bundestages bestätigt diese Probleme.
Wie können sich Nutzer schützen?
Die Cybersicherheitsbranche arbeitet fieberhaft an Erkennungswerkzeugen. Moderne Systeme analysieren Mikrobewegungen des Gesichts oder unnatürliche Lidschläge, um Deepfakes in Echtzeit zu entlarven.
Für Verbraucher gelten klare Grundregeln:
* Einmalpasswörter (OTPs) niemals weitergeben – egal, wer im Videoanruf danach fragt. Echte Bankmitarbeiter tun das nicht.
* Bei unerwarteten Anrufen mit finanziellen Forderungen skeptisch sein. Im Zweifel das Gespräch beenden und die Person über eine offizielle Nummer zurückrufen.
* Sicherheitswörter in der Familie vereinbaren, um Identitäten in Notfällen zu verifizieren.
* Konsequent Multi-Faktor-Authentifizierung nutzen. Ein physisches Gerät oder Sicherheitsschlüssel bildet eine zusätzliche Barriere.
Die neue Betrugswelle markiert einen Wendepunkt. Authentifizierung, die sich allein auf das Sehen oder Hören verlässt, reicht nicht mehr aus. Bis mehrschichtige Sicherheitskonzepte flächendeckend etabliert sind, bleibt die Wachsamkeit jedes Einzelnen die wichtigste Verteidigung.
Hol dir jetzt den Wissensvorsprung der Aktien-Profis.
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Aktien-Empfehlungen - Dreimal die Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt kostenlos anmelden
Jetzt abonnieren.

