KI-Betrug, Behörden

KI-Betrug: Behörden warnen vor perfekten Phishing-Mails und Stimmen-Klonen

12.02.2026 - 21:34:12

Sicherheitsbehörden warnen vor KI-generierten Betrugsversuchen, die durch perfekte Texte und geklonte Stimmen klassische Warnsignale aushebeln.

Deutsche und europäische Sicherheitsbehörden warnen eindringlich vor einer neuen Welle raffinierter KI-Betrügereien. Phishing-Mails sind fehlerfrei, und geklonte Stimmen täuschen selbst nahe Angehörige. Die klassischen Warnsignale wie Rechtschreibfehler greifen nicht mehr.

Das Bundesamt für Sicherheit in der Informationstechnik (BSI), Europol und Verbraucherzentralen sehen einen fundamentalen Wandel. Kriminelle nutzen generative KI, um massenhaft personalisierte Nachrichten, Stimmen und Videos zu erstellen. Die Warnungen wurden anlässlich des Safer Internet Day veröffentlicht.

Phishing und SMS-Betrug: Die perfekte Täuschung

Die Zeiten holpriger Phishing-Mails sind vorbei. Moderne KI-Systeme wie ChatGPT verfassen in Sekunden fehlerfreie, täuschend echte Texte. Diese sind von offizieller Kommunikation kaum zu unterscheiden.

Die Bundesnetzagentur warnt aktuell vor einer Smishing-Welle. Betrüger verschicken SMS, die angeblich von Banken stammen. Sie behaupten unautorisierte Auszahlungen oder nötigen zu VideoIdent-Verfahren. Das Ziel: Opfer klicken auf bösartige Links oder rufen gefälschte Hotlines an.

Die Technologie skaliert die Angriffe massiv. KI durchsucht das Internet nach öffentlichen Daten und erstellt detaillierte Opferprofile. So werden die Betrugsversuche hochgradig personalisiert und glaubwürdig.

Der KI-Enkeltrick: Wenn die vertraute Stimme lügt

Eine besonders perfide Methode ist das Klonen von Stimmen, auch Audio-Deepfake genannt. Betrügern genügen wenige Sekunden Audiomaterial aus sozialen Netzwerken.

Die Verbraucherzentralen warnen vor einer KI-gestützten „Perfektionierung“ des Enkeltricks. Opfer erhalten einen Anruf von der vermeintlichen Stimme eines Angehörigen in angeblicher Not. Die emotionale Manipulation und die authentische Stimme machen Skepsis oft unmöglich.

Die gleiche Technik bedroht Unternehmen. Beim CEO-Fraud erhalten Mitarbeiter Anweisungen von der geklonten Stimme eines Vorgesetzten zu illegalen Geldüberweisungen.

Deepfakes: Gefälschte Promis werben für Betrug

Neben Audio-Manipulationen werden auch gefälschte Videos zur großen Gefahr. Im Netz kursieren Deepfake-Clips, in denen Prominente oder Politiker für unseriöse Krypto-Plattformen werben.

Die KI synchronisiert Lippenbewegungen und Stimme täuschend echt. Das Europäische Verbraucherzentrum Italien warnt davor, solchen Inhalten zu vertrauen. Sie locken Opfer auf betrügerische Investmentseiten.

Experten fürchten auch den Missbrauch für gefälschte Video-Ident-Verfahren. Kriminelle könnten so im Namen ihrer Opfer Konten eröffnen.

Paradigmenwechsel: KI senkt die Hürden für Kriminelle

Sicherheitsbehörden wie Europol bewerten dies als grundlegenden Wandel. Die technologischen Hürden für komplexe Angriffe sind drastisch gesunken. Leistungsstarke KI-Tools sind leicht zugänglich.

Damit verlieren traditionelle Sicherheitsmaßnahmen an Wirksamkeit. Die neue Angriffsqualität zielt nicht auf technische Schwachstellen, sondern manipuliert gezielt den Menschen. Sie nutzt tiefes Vertrauen durch Imitation aus.

Anzeige

Angesichts der neuen, KI-gestützten Phishing-Methoden und Deepfakes sollten Unternehmen und Privatpersonen reagieren: Ein kostenloses E-Book erklärt die aktuellen Cyber-Security-Bedrohungen, praktische Schutzmaßnahmen und wie Sie Mitarbeiter gegen CEO-Fraud sowie Audio- und Video-Deepfakes schulen können. Kompakt und praxisnah – ohne hohe IT-Investitionen. Kostenloses Cyber-Security-E-Book herunterladen

Schutzmaßnahmen: Digitales Misstrauen wird zur Pflicht

Angesichts der Bedrohungslage appellieren Behörden an ein neues, gesundes Misstrauen. Experten raten zu folgenden Schritten:

  • Kein Druck: Beenden Sie die Kommunikation bei verdächtigen Anrufen mit Dringlichkeitsbehauptungen.
  • Eigenständig prüfen: Kontaktieren Sie die Person oder Firma immer über eine bekannte, offizielle Nummer oder Webseite.
  • Sicherheitsfragen stellen: Fragen Sie bei angeblichen Angehörigen in Not nach persönlichen Details, die nur die echte Person wissen kann.
  • Vorsicht online: Seien Sie sich bewusst, dass geteilte Sprach- und Videoclips zum Klonen missbraucht werden können.

Sicherheitsexperten entwickeln zwar KI-gestützte Abwehrmechanismen. Bis diese flächendeckend greifen, bleibt die kritische Prüfung durch den Menschen die wichtigste Verteidigungslinie.

@ boerse-global.de

Hol dir den Wissensvorsprung der Profis. Seit 2005 liefert der Börsenbrief trading-notes verlässliche Trading-Empfehlungen – dreimal die Woche, direkt in dein Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr.
Jetzt anmelden.