Moltbook: Datenleck bei KI-Netzwerk legt Sicherheitslücken offen
08.02.2026 - 07:43:12Ein falsch konfigurierter Datenbank-Server hat bei der KI-Plattform Moltbook 1,5 Millionen Zugangsschlüssel und private Nutzerdaten öffentlich zugänglich gemacht. Der Vorfall offenbart fundamentale Sicherheitsmängel in einer Anwendung, die vollständig durch Künstliche Intelligenz programmiert wurde.
Die Sicherheitsforscher des Unternehmens Wiz Inc. entdeckten eine öffentlich zugängliche Datenbank des viralen Netzwerks, das als eine Art Reddit für KI-Agenten bekannt wurde. Die Schwachstelle war kein Ergebnis eines Hackerangriffs, sondern eines grundlegenden Konfigurationsfehlers. Sie legte rund 1,5 Millionen API-Authentifizierungstoken, 35.000 E-Mail-Adressen menschlicher Nutzer und tausende private Nachrichten zwischen den KI-Agenten frei.
Ein Fundament aus Sand: Die fatale Fehlkonfiguration
Die Ursache des Lecks war eine falsch eingerichtete Supabase-Datenbank. Die Forscher fanden einen öffentlichen API-Schlüssel im clientseitigen JavaScript-Code der Plattform. Während solche Schlüssel bei korrekter Absicherung unbedenklich sein können, fehlte bei Moltbook die entscheidende Sicherheitsebene Row Level Security (RLS). Jeder, der den Schlüssel fand, erhielt damit Lese- und Schreibzugriff auf die gesamte Produktionsdatenbank.
Fehlkonfigurationen wie öffentlich im Client-Code platzierte API‑Schlüssel und fehlende Row‑Level‑Security machen Produktionsumgebungen extrem angreifbar. Ein kostenloser Cyber‑Security‑Report erklärt praxisnah, wie Sie Datenbanken, Secrets‑Management und Token‑Verwaltung absichern – inklusive Checkliste für RLS, Geheimnisspeicher und Maßnahmen gegen automatisierte Bot‑Registrierungen. Ideal für CTOs, Entwickler und Sicherheitsverantwortliche, die Datenlecks verhindern wollen. Jetzt kostenlosen Cyber‑Security‑Guide herunterladen
Dieses fundamentale Versäumnis wirft ein grelles Licht auf die von Moltbooks Gründer propagierte Praxis des „Vibe Coding“. Dabei übersetzt KI allein die Architekturvisionen des Entwicklers in funktionierenden Code – ohne dass dieser selbst eine Zeile schreibt. Der Vorfall zeigt die Risiken, wenn in der Jagd nach schneller Innovation grundlegende Sicherheitsprinzipien vernachlässigt werden.
Dominoeffekt: Die gefährlichen Folgen der offenen Schlüssel
Die Konsequenzen des Lecks sind gravierend. Mit den erbeuteten API-Token könnte ein Angreifer jeden der 1,5 Millionen KI-Agenten vollständig imitieren. Das ermöglicht das Posten von Inhalten, das Editieren bestehender Beiträge und das Senden privater Nachrichten unter falscher Identität. So ließen sich Diskussionen manipulieren oder Fehlinformationen streuen.
Besonders brisant: In über 4.000 freigelegten Privatkonversationen fanden die Forscher weitere sensible Zugangsdaten, darunter OpenAI-API-Schlüssel im Klartext. Ein einzelnes Datenleck kann so Sicherheitsrisiken für völlig unabhängige Dienste schaffen. Die offengelegten E-Mail-Adressen der menschlichen Nutzer erhöhen zudem die Gefahr von Phishing-Angriffen.
KI-Hype vs. Sicherheit: Eine ernüchternde Bilanz
Das Datenleck entlarvt auch die vermeintlich virale Verbreitung der Plattform. Zwar meldete Moltbook über 1,5 Millionen registrierte Agenten, die Datenbank zeigte jedoch nur etwa 17.000 menschliche Betreiber dahinter – ein Verhältnis von fast 88 zu 1. Grund war das Fehlen grundlegender Kontrollen wie einer Rate Limiting-Funktion, die es einem Nutzer erlaubte, Millionen Agenten per Skript zu registrieren.
Die vermeintlich organische Aktivität im „sozialen Netzwerk für KIs“ wurde also maßgeblich durch Bots einer kleinen Nutzergruppe aufgebläht. Der Vorfall unterstreicht ein bekanntes Muster: Der Wettlauf um innovative KI-Anwendungen führt oft zur Vernachlässigung elementarer Cybersicherheit.
Lektion für die Branche: Sicherheit first
Nach der Benachrichtigung durch Wiz sicherte das Moltbook-Team die Datenbank innerhalb weniger Stunden. Die Forscher löschten die zu Untersuchungszwecken kopierten Daten. Doch der Schaden ist angerichtet – und die Debatte entfacht.
Der Fall Moltbook dient als Weckruf für die gesamte KI-Branche. Je autonomer und mächtiger KI-Agenten werden, desto größer wird die Verantwortung für ihre Absicherung. Die zeitlosen Prinzipien der Cybersicherheit – gesicherte Datenbanken, geschützte Zugangsdaten, strenge Zugriffskontrollen – bleiben unverzichtbar, selbst wenn KI die Softwareentwicklung revolutioniert. Die Industrie muss nun Leitlinien und Sicherheitsrahmen für den entstehenden „Agenten-Internet“ entwickeln, bevor weitere Lecks folgen.
PS: Sie sind besorgt, dass offengelegte E‑Mail‑Adressen und API‑Keys zu Phishing und Identitätsmissbrauch führen? Der gratis Cyber‑Security‑Leitfaden zeigt praxisnahe Anti‑Phishing‑Strategien, wie Sie Mitarbeitende schulen, Incident‑Response‑Pläne aufsetzen und sofortige Sofortmaßnahmen nach einem Leak umsetzen. Inklusive Vorlagen für interne Checks, Kommunikationsvorlagen und einer schnellen Risikoeinschätzung. Kostenlosen Cyber‑Security‑Leitfaden jetzt anfordern


