KI-Sicherheitsbericht, Cyberangriffen

KI-Sicherheitsbericht warnt vor autonomen Cyberangriffen

03.02.2026 - 12:14:12

Ein internationaler Bericht unter Leitung von Yoshua Bengio prognostiziert eine neue Ära digitaler Bedrohungen durch eigenständig agierende KI-Systeme. Die technischen Hürden für vollautonome Cyberoperationen schwinden schneller als erwartet.

Ein neuer internationaler Bericht sieht die Welt am Rande einer neuen Ära digitaler Bedrohungen. Autonome KI-Agenten könnten bald eigenständig komplexe Cyberangriffe starten.

Das geht aus dem heute veröffentlichten Zweiten Internationalen KI-Sicherheitsbericht hervor. Der Report, der unter Leitung des renommierten Informatikers Yoshua Bengio entstand, dient als Grundlage für den bevorstehenden KI-Gipfel in Neu-Delhi. Die zentrale Warnung: Die technischen Hürden, die KI-Systeme noch von vollautonomen Cyberoperationen abhalten, schwinden schneller als erwartet.

Die neue Ära „agentischer“ Bedrohungen

Der alarmierendste Teil des Berichts beschreibt den Aufstieg sogenannter agentischer KI-Systeme. Diese Software kann komplexe Ziele mit minimaler menschlicher Steuerung verfolgen. Während frühere KI-Generationen lediglich Werkzeuge für Hacker waren, zeigen neue Modelle bereits die Fähigkeit, Angriffe eigenständig zu planen, auszuführen und anzupassen.

Anzeige

Passend zum Thema KI-Regulierung: Die EU-KI-Verordnung ist seit August 2024 in Kraft – viele Unternehmen und Entwickler riskieren unwissentlich Bußgelder, weil Kennzeichnungspflichten, Risikoklassen und Dokumentationsanforderungen fehlen. Unser kostenloser Umsetzungsleitfaden erklärt kompakt, welche Pflichten jetzt gelten, wie Sie Ihr System richtig klassifizieren und welche Übergangsfristen Sie beachten müssen. Holen Sie sich die Checklisten und Praxis-Tipps für sofortige Compliance. Ideal für Entscheider, Datenschutzbeauftragte und KI-Verantwortliche. Jetzt kostenlosen KI-Verordnungs-Leitfaden herunterladen

Als wegweisendes Beispiel nennt der Report einen Vorfall aus September 2025. Damals nutzte ein mutmaßlich staatlicher Akteur ein KI-Codierungstool, um eine großangelegte Spionagekampagne zu orchestrieren. Erschreckend: 80 bis 90 Prozent der Angriffsschritte – von der Erkundung bis zur Code-Ausführung – liefen ohne direkte menschliche Anweisung ab.

Diese Entwicklung verändert die Bedrohungslage fundamental. Wo ein menschlicher Hacker vielleicht eine Handvoll Ziele gleichzeitig attackieren kann, könnte ein autonomer KI-Agent theoretisch tausende parallele, maßgeschneiderte Angriffe starten. Herkömmliche Abwehrmechanismen wären damit schlicht überfordert.

Explodierende Angriffszahlen und „Dark AI“

Die Warnungen des Berichts werden durch aktuelle Branchendaten untermauert. Der Cyber Security Report 2026 von Check Point Software zeigt: Unternehmen weltweit sahen sich 2025 durchschnittlich 1.968 Cyberangriffen pro Woche ausgesetzt. Das ist ein Anstieg von 70 Prozent im Vergleich zu 2023.

„KI verändert die Mechanik der Cyberkriegsführung grundlegend“, erklärt Lotem Finkelstein, Forschungschef bei Check Point. Die Angreifer setzen zunehmend auf „Dark AI“ – Modelle, die speziell trainiert oder manipuliert wurden, um Malware zu generieren und Sicherheitsfilter zu umgehen.

Eine parallele Analyse von Forescout Technologies unterstreicht die globale Dimension. Cyberangriffe verteilen sich heute auf mehr Jurisdiktionen denn je. Autonome Systeme ermöglichen es Angreifern, ihre Infrastruktur blitzschnell zu verlagern, was die Zuordnung und Abwehr enorm erschwert.

Deepfakes und der Zerfall des Vertrauens

Neben direkten Infrastrukturangriffen widmet der Bericht große Aufmerksamkeit den gesellschaftlichen Risiken durch generative KI. Die Verbreitung nicht-einvernehmlicher Deepfake-Pornografie wird als „besonders besorgniserregend“ bezeichnet. Ein signifikanter Teil der erwachsenen Bevölkerung sei bereits mit solchen Inhalten in Berührung gekommen.

Noch beunruhigender: KI-generierte Texte und Medien sind von menschlichen Kreationen oft nicht mehr zu unterscheiden. Studien zeigen, dass über drei Viertel der Probanden KI-Texte konsequent für menschliche Arbeit hielten. Diese Fähigkeit könnte in sensiblen politischen Zyklen zur Meinungsmanipulation eingesetzt werden.

Die gefährlichste Entwicklung wäre die Konvergenz beider Technologien. Ein autonomer Agent könnte nicht nur ein Firmennetzwerk hacken, sondern gleichzeitig täuschend echte Audio- oder Video-Imitationen von Führungskräften erzeugen. Damit ließen sich betrügerische Transaktionen autorisieren oder sensible Daten freigeben – komplett ohne menschlichen Operator.

Die Weichenstellung von Delhi

Die Veröffentlichung des Berichts bereitet den KI-Gipfel in Neu-Delhi vor, der später in diesem Monat stattfindet. Dieses Treffen soll über freiwillige Verpflichtungen hinausgehen und konkrete regulatorische Rahmenbedingungen schaffen.

Eine Schlüsseldebatte wird die Regulierung „dual-use“-Basismodelle betreffen. Das sind leistungsstarke KI-Systeme, die sowohl für nützliche Forschung als auch für bösartige Cyberangriffe genutzt werden können. Die Erkenntnisse aus dem Anthropic-Vorfall stärken wohl jene, die strengere „Know-Your-Customer“-Pflichten für Rechenzentren und rigorosere Sicherheitstests vor der Veröffentlichung fordern.

Ausblick: Ein Wettlauf gegen die Zeit

Die Reaktionen aus der Tech-Branche folgten prompt. Sicherheitsanbieter plädieren für „KI-gesteuerte Verteidigung“ – nur mit gleichwertigen autonomen Abwehrsystemen ließen sich die neuen Angreifer bekämpfen.

Die einhellige Meinung der Wissenschaftler im Bericht ist klar: Die Phase, in der der Mensch für die ausgeklügeltsten Angriffe unverzichtbar ist, neigt sich dem Ende zu. Die Schleife wird lockerer und seltener.

Für 2026 prognostizieren Experten eine weitere Beschleunigung des Katz-und-Maus-Spiels. Mit verbesserten Denkfähigkeiten der KI-Modelle wird auch die Effektivität autonomer Agenten bei der Suche nach bisher unbekannten Sicherheitslücken (Zero-Day-Exploits) zunehmen.

Die Botschaft an die internationale Gemeinschaft ist eindeutig: Das Zeitalter vollautonomer Cyberbedrohungen ist keine Science-Fiction mehr, sondern eine entstehende Realität. Sie erfordert sofortiges und koordiniertes globales Handeln.

Anzeige

PS: Für alle, die in Unternehmen KI-Systeme einsetzen: Dieser Gratis-Guide beantwortet praxisnah Fragen zu „dual-use“-Basismodellen, Audit-Vorbereitung und Dokumentationspflichten – inklusive Muster-Checkliste für technische und organisatorische Maßnahmen. Bereiten Sie sich auf den KI-Gipfel und mögliche Prüfungen vor, bevor es zu spät ist. Kostenlosen Umsetzungsleitfaden zur KI-Verordnung sichern

@ boerse-global.de