Google, Gemini

Google Gemini: Angriffswelle auf KI-Geheimnisse

12.02.2026 - 13:09:11

Googles Threat Intelligence Group deckt eine großangelegte Kampagne zur Extraktion der Denklogik von Gemini auf. Sowohl Wettbewerber als auch staatliche Hacker nutzen die KI für Industriespionage und Cyberangriffe.

Googles Spitzen-KI ist im Visier von Konkurrenten und Staatshackern. Das Unternehmen enthüllt eine beispiellose Kampagne zur Ausspähung der Denklogik von Gemini.

Die Bedrohung ist neu, das Ziel wertvoll: Googles Threat Intelligence Group (GTIG) hat eine groß angelegte, hochsophistische Offensive gegen die Denklogik seiner Gemini-KI-Modelle aufgedeckt. Angreifer versuchten systematisch, das intellektuelle Kerneigentum der KI zu klonen. Das zeigt ein aktueller Bericht vom 12. Februar. Die Attacke unterstreicht, wie sehr fortschrittliche KI inzwischen zum begehrten Ziel von Industriespionage und staatlicher Cyberkriegsführung geworden ist.

Industrielles Klonen: Der Angriff auf die Denklogik

Im Zentrum steht eine koordinierte Modell-Extraktions-Kampagne. Dabei setzten kommerzielle Akteure und Forscher über 100.000 automatisierte Anfragen an die Gemini-API ein. Ihre Taktik: „Reasoning Trace Coercion“. Statt nur eine Antwort zu erhalten, sollten die komplexen Abfragen die KI zwingen, ihren schrittweisen, internen Entscheidungsweg preiszugeben.

Warum ist das so gefährlich? Mit diesen „Denkspuren“ ließe sich ein kleineres, billigeres KI-Modell trainieren – ein Klon, der das Verhalten des milliardenteuren Gemini-3-Lehrmodells imitiert. Konkurrenten könnten so Googles Flaggschiff-KI nachbauen, ohne die immensen Trainingskosten zu tragen. Googles Abwehrsysteme erkannten den Angriff in Echtzeit und blockierten die sensiblen Daten. Die Motivation sei weniger klassische Kriminalität, sondern der Wettbewerbsvorteil im hart umkämpften KI-Markt.

Staatshacker nutzen KI für Cyberangriffe

Doch nicht nur die Wirtschaft hat es auf Gemini abgesehen. Der Bericht listet auch den systematischen Missbrauch durch staatlich unterstützte Hacker auf. Spezifische Advanced Persistent Threat (APT)-Gruppen aus China, Iran, Nordkorea und Russland nutzen die KI für offensive Cyber-Operationen.

Die chinesische Gruppe APT31 (Zirconium) soll Gemini genutzt haben, um Cyberangriffe auf US-Organisationen zu planen, Schwachstellen zu analysieren und Angriffscode zu generieren. Die iranische APT42 setzte die KI ein, um überzeugende Phishing-E-Mails zu verfassen und Verteidigungsunternehmen auszuspähen. Nordkoreanische Hacker (UNC2970) nutzten Gemini, um Zielpersonen im Sicherheitssektor zu profilieren. Die KI verwischt die Grenze zwischen Forschung und Spionage und gibt Angreifern eine nie dagewesene Skalierbarkeit und sprachliche Präzision.

Social Engineering: Der „ClickFix“-Betrug

Eine weitere, raffinierte Taktik nutzt das Vertrauen in Google-Domains. Bei der „ClickFix“-Kampagne missbrauchten Angreifer die öffentliche Teilen-Funktion von Gemini. Sie erstellten täuschend echte KI-Chat-Transkripte, die angebliche Lösungen für Computerprobleme anboten.

Versteckt in den harmlos wirkenden Anleitungen befanden sich jedoch bösartige Skripte, die Malware wie den ATOMIC-Stealer für macOS installierten. Die Links zu diesen Gesprächen wurden geteilt – und nutzten den guten Ruf der Google-Domain, um Sicherheitsfilter zu umgehen. Opfer infizierten sich so selbst, im Glauben, Hilfe von einer vertrauenswürdigen Quelle zu erhalten.

Anzeige

Die hier geschilderten Angriffe zeigen, wie leicht Phishing, Social Engineering und automatisierte Exploits heute funktionieren. Ein kostenloses E‑Book erklärt, welche Maßnahmen Unternehmen und Privatpersonen jetzt brauchen — von Erkennungstechniken über Schulungen bis zu praktischen Schutzschritten gegen Phishing und KI‑gestützte Angriffe. Jetzt kostenloses Cyber-Security‑E‑Book herunterladen

KI-Sicherheit wird zum Wettlauf

Die Enthüllungen kommen zu einem kritischen Zeitpunkt. Google rollt gerade sein Gemini-3-Modell global aus, das Ende 2025 in die Produkte integriert wurde. Die Angriffe zeigen den enormen Wert, den Konkurrenten und Gegner der fortschrittlichen Denkfähigkeit dieser KI-Generation beimessen.

Der Vorfall markiert einen Wendepunkt: Modell-Extraktion ist keine theoretische Übung mehr, sondern eine praktische, industrielle Bedrohung. Google hat als Reaktion seine Sicherheitsklassifizierer und Missbrauchserkennung aktualisiert und teilt die Erkenntnisse mit der Sicherheitscommunity.

Experten erwarten, dass sich der Wettlauf zwischen Entwicklern und Angreifern 2026 weiter verschärfen wird. Der Trend geht zu „automatisierten Adversarial Attacks“, bei denen KI-Systeme andere KI-Systeme mit Maschinengeschwindigkeit angreifen. Googles proprietäre Modell-Gewichte seien zwar weiterhin sicher, betont das Unternehmen. Doch die schiere Masse der Angriffsversuche beweist: Die Hürde, hochwertige KI-Klone zu erstellen, wird von Konkurrenten und Kriminellen systematisch attackiert.

@ boerse-global.de

Hol dir den Wissensvorsprung der Profis. Seit 2005 liefert der Börsenbrief trading-notes verlässliche Trading-Empfehlungen – dreimal die Woche, direkt in dein Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr.
Jetzt anmelden.