Deepfakes, Schottland

Deepfakes: Schottland kriminalisiert KI-Täuschung

03.12.2025 - 07:09:12

Die Ära schlecht formulierter Phishing-Mails ist vorbei. Eine neue Generation hyperrealistischer, KI-gestützter Angriffe zielt direkt auf die menschliche Wahrnehmung – und Regierungen reagieren drastisch. Binnen 48 Stunden haben Behörden und Sicherheitsexperten koordiniert gewarnt: Deepfakes werden 2026 zur Hauptwaffe staatlich geförderter Hacker.

Am Dienstag startete die schottische Regierung eine wegweisende Gesetzesinitiative gegen Deepfake-Erstellung. Zeitgleich warnte das südkoreanische Sicherheitsunternehmen AhnLab vor nordkoreanischen Hackergruppen, die diese Technologie bereits systematisch einsetzen. Die Botschaft ist klar: Was heute noch wie Science-Fiction klingt, ist morgen bereits Unternehmensalltag.

Die schottische Regierung will künftig bereits die Erstellung von Deepfakes unter Strafe stellen – nicht erst deren Verbreitung. Kabinettssekretärin Shirley-Anne Somerville kündigte die Konsultation am Dienstag im schottischen Parlament an. Während das britische Online Safety Act bereits das Teilen solcher Inhalte verbietet, zielt der neue Vorstoß auf den Ursprung: die Produktion selbst.

Anzeige

CEO-Fraud und Deepfake‑gestützte Täuschungen treffen inzwischen auch gut geschulte Mitarbeiter – von fingierten Videokonferenzen bis zu täuschend echten E‑Mails. Das kostenlose Anti‑Phishing‑Paket erklärt in vier klaren Schritten, wie Sie psychologische Angriffsmuster erkennen, CEO‑Impersonation verhindern und interne Verifizierungsprozesse etablieren. Mit Checklisten für IT‑Teams und kurzen Schulungsmodulen für Mitarbeiter ist es ideal für Unternehmen, Finanzabteilungen und Web3‑Anbieter. Anti-Phishing-Paket jetzt kostenlos anfordern

“Wir müssen mit den rasanten Entwicklungen bei generativer KI Schritt halten”, betonte Somerville. Mittlerweile könne jeder mit zugänglichen Apps kompromittierende Bilder erstellen – ganz ohne technisches Fachwissen.

Die Dringlichkeit unterstreichen Zahlen von Sensity AI: 90 bis 95 Prozent aller Online-Deepfakes sind nicht einvernehmlich erstellte pornografische Inhalte, die überwiegend Frauen zum Ziel haben. Doch Experten warnen: Dieselbe Technologie wird zunehmend für Wirtschaftsspionage und Führungskräfte-Imitationen missbraucht.

Lazarus-Gruppe perfektioniert digitale Doppelgänger

Während Gesetzgeber aufholen, verfeinern Angreifer längst ihre Methoden. Am Montag veröffentlichte AhnLab seinen Sicherheitsausblick für 2026 – mit düsteren Prognosen. Die berüchtigte Lazarus-Gruppe, ein nordkoreanisches Hacker-Syndikat, nutzt KI-generierte “Deepfake-Köder” für gezielte Angriffe auf Kryptowährungsunternehmen, Finanzinstitute und Rüstungsfirmen.

Die Taktik ist perfide: Täuschend echte E-Mails mit Vortragseinladungen oder Interview-Anfragen werden durch KI-generierte Video- oder Sprachanrufe ergänzt. So bauen die Angreifer systematisch Vertrauen auf, bevor sie zuschlagen.

AhnLabs Analyse zeigt: KI wird 2026 die Effizienz und Raffinesse dieser Kampagnen “erheblich steigern”. Durch generative KI perfektionieren die Gruppen ihre Englischkenntnisse und erschaffen konsistente digitale Zwillinge von Personalverantwortlichen oder Branchenexperten. Das Ergebnis? Die gesunde Skepsis hochrangiger Zielpersonen wird systematisch ausgehebelt.

Zwischen Ende 2024 und Ende 2025 war Lazarus die am häufigsten identifizierte Gruppe bei Vorfallsanalysen. Ihre Dominanz in diesem neuen Bereich des “Wahrnehmungs-Hackings” ist unbestritten.

Von Daten zu Wahrnehmung

Der Paradigmenwechsel ist deutlich. Dr. Assad Abbas, Professor und Forscher, bringt es auf den Punkt: “Ransomware greift Daten an, Deepfakes greifen die Wahrnehmung an.”

In seinem Bericht vom Montag beschreibt Abbas einen beunruhigenden Trend: Deepfake-Textgespräche und Stimm-Kloning werden zum Standard bei hochwertigem Betrug. Anders als traditionelle Malware, die einen Download erfordert, zielen diese Angriffe darauf ab, das Opfer davon zu überzeugen, mit einem vertrauenswürdigen Vorgesetzten oder Kunden zu sprechen.

Das bekannteste Beispiel? Der 25-Millionen-Euro-Verlust der Ingenieurfirma Arup 2024. Ein Finanzangestellter fiel auf eine Videokonferenz herein, bei der alle anderen Teilnehmer Deepfake-Nachbildungen von Kollegen waren. Abbas warnt: Ende 2025 ist die Einstiegshürde für solche Angriffe noch weiter gesunken. “Mit minimalen Video- oder Audio-Samples können Betrüger Aussehen und Tonfall jeder Person imitieren.” Echtzeit-Erkennung bleibe für durchschnittliche Mitarbeiter “nahezu unmöglich”.

Krypto-Sektor im Visier

Nicht nur Videos sind betroffen. Ein Bericht hebt den Aufstieg von “Deepfake-Textgesprächen” hervor, die speziell den Krypto-Sektor ins Visier nehmen. Mit Large Language Models generieren Angreifer kontextbewusste, hochpersonalisierte Nachrichten, die den Schreibstil von CEOs oder Kundenbetreuern täuschend echt nachahmen.

Diese textbasierten Deepfakes sind besonders effektiv, weil ihnen der “uncanny valley”-Effekt unvollkommener Videos fehlt. Angreifer führen langwierige Konversationen – eine Technik namens “Pig Butchering” –, um Vertrauen aufzubauen, bevor sie nach Wallet-Schlüsseln oder dringenden Überweisungen fragen. Gründer von Web3-Plattformen und Finanzabteilungen sind die primären Ziele dieser textbasierten Social-Engineering-Kampagnen.

Wettlauf um die Oberhand

2026 steht ein Wettrüsten zwischen KI-Generierung und KI-Erkennung bevor. Der parteiübergreifende “AI Fraud Deterrence Act”, Ende November im US-Repräsentantenhaus eingebracht, sieht Haftstrafen von bis zu 30 Jahren für den Einsatz von KI zur Impersonierung von Regierungsbeamten oder Betrug vor.

Doch Gesetze bewegen sich langsamer als Code. Für Unternehmen erfordert die unmittelbare Zukunft einen “Zero Trust”-Ansatz bei jeder Kommunikation. Sicherheitsexperten raten: Keine sensible Finanzanweisung sollte allein aufgrund eines Videoanrufs oder einer digitalen Nachricht befolgt werden. Out-of-Band-Verifizierung – das Zurückrufen über eine bekannte, interne Telefonnummer – wird zur einzig verlässlichen Verteidigung gegen einen Gegner, der jedes Gesicht tragen und mit jeder Stimme sprechen kann.

Die Kampflinien für 2026 sind klar gezogen: Die Herausforderung besteht nicht nur darin, Netzwerke zu sichern, sondern die Realität selbst zu verifizieren.

Anzeige

PS: Deepfakes, Stimmklone und hochpersonalisierte Textangriffe machen klassische Kontrollen unsicher – systematische Out-of-Band-Verifizierung und klare Freigabeprozesse sind jetzt Pflicht. Das Anti‑Phishing‑Paket liefert praxisnahe Leitfäden zur CEO‑Fraud‑Prävention, branchenspezifische Maßnahmen für Krypto und Finanzsektor sowie konkrete Schritte für Incident Response und Mitarbeiterschulungen. Laden Sie den Experten‑Guide herunter und schützen Sie Wallets, Zahlungsprozesse und interne Freigaben proaktiv. Jetzt Anti-Phishing-Guide herunterladen

@ boerse-global.de