Google, Angriffen

Google warnt vor Angriffen auf KI-Modell Gemini

13.02.2026 - 12:30:12

Googles KI-Flaggschiff Gemini steht im Fokus einer neuen Woche raffinierter Cyberangriffe. Staatliche Akteure und private Konkurrenten versuchen, die proprietäre Logik des Modells zu kopieren und für eigene Zwecke zu nutzen. Das markiert eine neue Eskalationsstufe im KI-Wettrennen.

In einem aktuellen Bericht seines Threat Intelligence Group (GTIG) hat der Tech-Riese enthüllt, dass er eine großangelegte Kampagne aufgedeckt und gestoppt hat. Dabei geht es nicht um klassischen Datendiebstahl, sondern um das Abgreifen der künstlichen Intelligenz selbst. Angreifer wollen die Denkweise des Modells nachbauen.

Der Kern der Bedrohung ist eine Technik namens „Model Extraction“ oder „Destillation“. Die Angreifer hacken sich nicht in Server ein, sondern nutzen die legitime Nutzerschnittstelle von Gemini. Sie überfluten das System mit Hunderttausenden speziell gestalteten Prompts.

Diese Anfragen zielen nicht auf Standardantworten ab. Sie sollen das Modell zwingen, seine internen Entscheidungsprozesse und Problemlösungsmuster preiszugeben. Mit diesen hochwertigen Ausgaben trainieren Angreifer dann eigene, kleinere Modelle. So imitieren sie Geminis Fähigkeiten, ohne die milliardenschweren Entwicklungskosten tragen zu müssen.

„Diese Operationen sind effektiv geistiger Diebstahl“, sagt John Hultquist, Chefanalyst der GTIG. Die geklonten Modelle seien zwar keine exakten Kopien, erreichten aber eine gefährliche Ähnlichkeit für bestimmte Aufgaben. Konkurrenten oder böswillige Akteure könnten so Googles Sicherheitsvorkehrungen und Nutzungsgebühren umgehen. Google hat die verantwortlichen Konten bereits gesperrt, doch die dezentrale Natur der Angriffe erschwert eine dauerhafte Lösung.

Staatsspionage und KI-generierte Malware

Ein Teil der Klon-Aktivitäten ist kommerziell motiviert. Der Bericht beleuchtet jedoch eine dunklere Dimension: die Beteiligung staatlicher Akteure. Google identifizierte Kampagnen, die mit Gruppen in China, Iran, Nordkorea und Russland in Verbindung stehen.

Eine nordkoreanische Gruppe mit der Bezeichnung UNC2970 nutzte Gemini demnach, um öffentlich zugängliche Informationen zu sammeln und hochrangige Ziele in Verteidigung und Energiebranche zu profilieren. Mit diesen Daten erstellen sie gezielte Phishing-Kampagnen.

Irans APT42 setzte das Modell ein, um überzeugende Phishing-E-Mails und Social-Engineering-Skripte zu verfassen. Das senkt die Einstiegshürde für komplexen Betrug erheblich. Noch beunruhigender ist der Fund der neuen Malware „HONESTCUE“. Sie nutzt die Gemini-API dynamisch, um ihren eigenen Code während eines Angriffs umzuschreiben. Diese polymorphe Fähigkeit hilft ihr, traditionelle Virenscanner zu umgehen.

Anzeige

Die Angriffe auf Gemini zeigen, wie schnell KI-basierte Bedrohungen Unternehmen treffen können. Ein neuer, kostenloser E‑Book-Report erklärt die wichtigsten Cyber‑Security‑Trends 2024–2026, welche Risiken durch KI‑gestützte Phishing‑ und Malware‑Kampagnen entstehen und welche praktischen Schutzmaßnahmen sofort helfen. Ideal für IT‑Verantwortliche und Entscheider, die ihre Organisation ohne hohe Investitionen wirksam schützen wollen. Jetzt kostenlosen Cyber-Security-Guide herunterladen

Ein weiterer Fund ist das Krypto-Phishing-Kit „CoinBait“. Es zeigt eindeutige Spuren automatisierter Code-Generierung. Cyberkriminelle scheinen bereits auf kompromittierte Versionen von Modellen wie Gemini zurückzugreifen, um ihre Angriffsinfrastruktur aufzubauen.

Graumarkt für KI-Modelle bedroht Wirtschaft

Die wirtschaftlichen Folgen dieser Bedrohung sind enorm. Wenn Destillationsangriffe zur Norm werden, schwindet der Wettbewerbsvorteil großer KI-Labore. Kleine, unregulierte Anbieter könnten „Gemini-Klasse“-Leistung zu Bruchteilkosten anbieten – indem sie einfach die Intelligenz der Großen anzapfen.

Experten sprechen von einem entstehenden Graumarkt für KI-Modelle. Diese abgeleiteten Modelle haben oft nicht die Sicherheitsfilter und ethischen Richtlinien der Originale. Eine geklonte Version von Gemini könnte ihrer Sperrmechanismen beraubt werden. Sie könnte dann ohne Einschränkung Hassrede, Malware-Code oder Desinformation erzeugen.

Googles Bericht verweist auf „private Akteure auf der ganzen Welt“, die sich dieses Verhaltens schuldig machen. Das deutet auf ein Umfeld hin, in dem selbst legitime Unternehmen zu Spionagetaktiken greifen, um im KI-Rennen aufzuholen.

Googles Verteidigung der „Black Box“

Als Reaktion auf die Bedrohung ergreift Google neue Verteidigungsmaßnahmen. Das Unternehmen setzt Algorithmen zur Anomalie-Erkennung ein. Diese sollen die spezifischen Muster von Extraktionsangriffen erkennen. Die Systeme analysieren die „Absicht“ hinter einer Prompt-Sequenz und melden Nutzer, die systematisch die Logikgrenzen des Modells ausloten.

Zudem intensiviert Google die Zusammenarbeit mit anderen Branchenführern, um Standards für „Model Watermarking“ und API-Sicherheit zu etablieren. Ziel ist eine digitale Nachverfolgbarkeit, die erkennt, wenn ein Drittmodell mit den Ausgaben eines proprietären Systems trainiert wurde.

Die Herausforderung bleibt einzigartig. Solange KI-Modelle hilfreich und antwortfreudig sein sollen, bleiben sie anfällig für Manipulationen durch diejenigen, die die richtigen Fragen stellen. Die Branche betritt eine neue Phase der konfrontativen KI, in der das Schlachtfeld nicht mehr nur das Netzwerk, sondern die neuronalen Pfade der künstlichen Intelligenz selbst sind.

Ausblick: Destillation wird 2026 zum Standard

Sicherheitsanalysten erwarten, dass „Model Destillation“ 2026 zur Standardtaktik für Cyberkriminelle und unlautere Konkurrenten wird. Mit verbesserten Abwehrmaßnahmen werden Angreifer zu verteilteren Methoden übergehen. Sie könnten Botnetze aus kompromittierten Geräten nutzen, um Prompts tröpfchenweise an Zielmodelle zu senden – und die Entdeckung so erheblich erschweren.

Für die Tech-Branche sind Googles Erkenntnisse eine deutliche Warnung. Die Kommerzialisierung von Intelligenz beschleunigt sich. Den „Geheimzutat“ eines Fundamentalmodells zu schützen, wird so schwer wie der Schutz digitaler Medien im Zeitalter der Piraterie. Das kommende Jahr wird wohl eine Flut von Rechtsstreits um KI- geistiges Eigentum und ein hektisches Rennen um „unklonable“ Modellarchitekturen bringen.

@ boerse-global.de

Hol dir den Wissensvorsprung der Profis. Seit 2005 liefert der Börsenbrief trading-notes verlässliche Trading-Empfehlungen – dreimal die Woche, direkt in dein Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr.
Jetzt anmelden.