KI-Betrüger starten Weihnachts-Offensive mit Deepfake-Anrufen
26.12.2025 - 00:30:12Während der Feiertage rollt eine beispiellose Welle von KI-gestützten Betrugsanrufen über die Welt. Sicherheitsfirmen verzeichneten in den letzten 72 Stunden einen massiven Anstieg von Voice-Phishing-Angriffen (Vishing), bei denen täuschend echte Stimmenimitate zum Einsatz kommen. Doch es gibt auch gute Nachrichten: Einem US-Finanzinstitut gelang mit neuer Abwehrtechnologie ein bedeutender Schlag gegen die Kriminellen.
Die Betrüger nutzen gezielt das vorweihnachtliche Chaos und die emotionale Aufgeladenheit der Tage. Ihre perfide Masche: die sogenannten „Family Emergency“-Anrufe. Dabei klonen sie mit Hilfe von KI kurze Audio-Schnipsel aus sozialen Medien die Stimme eines Familienmitglieds.
Opfer erhalten dann Anrufe von vermeintlichen Enkeln oder Kindern, die in einer angeblichen Notlage stecken – etwa nach einem Unfall oder am Flughafen festsitzen. „Sie setzen die Opfer unter extremen psychischen Druck. Das ist emotional manipulativ und brutal effektiv“, warnt Cybersicherheitsexperte Eric O’Neill.
Passend zum Thema: Viele Firmen sind auf die neue Welle von KI‑gestützten Angriffen derzeit nicht vorbereitet. Studien und Branchenberichte zeigen, dass ein großer Teil der Unternehmen Schwachstellen in der Erkennung von Social‑Engineering‑ und Deepfake‑Attacken hat. Ein kostenloses E‑Book erklärt praxisnah, welche Sofortmaßnahmen IT‑Verantwortliche und Geschäftsführer jetzt ergreifen können – von Awareness‑Checks bis zu technischen Basisschutzmaßnahmen. Kostenloses Cyber-Security-E-Book herunterladen
Explosionsartiger Anstieg: 1300 Prozent mehr Deepfake-Anrufe
Das Ausmaß der Bedrohung ist gewaltig. Ein aktueller Bericht des Sicherheitsunternehmens Pindrop zeigt: Die Anzahl der Deepfake-Anrufe ist im Vergleich zum Vorjahr um 1300 Prozent gestiegen.
Besonders im Visier der Kriminellen stehen kleinere Finanzinstitute wie Kreditgenossenschaften. „Betrüger zielen darauf ab, weil sie wissen, dass Großbanken bereits massiv in Abwehrtechnologie investiert haben“, erklärt Frank McKenna von Point Predictive.
Ein Treiber dieser Welle war eine Sicherheitslücke bei der KI-Plattform Retell AI. Über eine API konnten Angreifer mit minimalem Aufwand Tausende autonome KI-Sprachagenten erstellen, die Anrufe tätigen. Die Technologie ist damit für fast jeden Kriminellen zugänglich geworden.
Die Gegenwehr: Wie eine Bank Millionen schützte
Mitten in der düsteren Nachrichtenlage gibt es einen Erfolg. Die Michigan State University Federal Credit Union (MSUFCU) verhinderte mit einer speziellen Deepfake-Erkennungstechnologie Betrug in Millionenhöhe.
Das System des Anbieters Pindrop analysiert eingehende Anrufe in Echtzeit. Es prüft nicht den Gesprächsinhalt, sondern unhörbare akustische Mikro-Merkmale der Stimme. Diese „Liveness“-Indikatoren verraten, ob eine Stimme synthetisch generiert wurde.
„Rund 80 Prozent der Menschen halten meinen KI-Stimmenklon für echt. Für einen Callcenter-Mitarbeiter ist es unmöglich, den Unterschied zu hören“, so McKenna. Mit der Technologie blockierte die Bank Betrugsversuche im Wert von über 2,5 Millionen Dollar.
Was Verbraucher jetzt tun können
Das Wettrüsten zwischen KI-Betrügern und Sicherheitsexperten wird 2026 weitergehen. Die nächste Generation von KI-Modellen wird in Echtzeit auf Gesprächspartner reagieren können. Bis flächendeckende technische Lösungen wie „Vishing-Filter“ in Telefonnetzen kommen, bleibt Aufmerksamkeit der beste Schutz.
Experten raten zu zwei simplen, aber wirksamen Maßnahmen:
* Gesunde Skepsis: Bei unerwarteten, dringenden Anrufen mit Geldforderungen immer erst innehalten.
* Sicherheitswort: Vereinbaren Sie in der Familie ein Codewort, das in echten Notfällen genannt werden muss.
PS: Gerade Voice‑Phishing lebt von psychologischen Tricks – das kostenlose Anti‑Phishing‑Paket zeigt in vier klaren Schritten, wie Sie Mitarbeiter und Angehörige schützen können. Der Guide erklärt, wie man psychologische Angriffsmuster erkennt, interne Meldewege einrichtet und konkrete Checklisten anwendet, um CEO‑Fraud, gefälschte Anrufe und Deepfake‑Versuche abzuwehren. Anti‑Phishing‑Paket jetzt gratis herunterladen


