Schwachstelle sorgt für Ärger
Ein neu gestartetes Online-Forum speziell für künstliche Intelligenz-Agenten, bekannt als Moltbook, war laut dem Cloud-Security-Anbieter Wiz wochenlang von einer gravierenden Sicherheitslücke betroffen, die sensible Daten und Zugangsinformationen von Anwendern offengelegt hat.
Moltbook wurde Ende Januar 2026 als „Reddit-ähnliches Netzwerk“ für autonome KI-Bots ins Leben gerufen. Ziel war es, dass sich sogenannte AI-Agenten gegenseitig austauschen und miteinander interagieren, während menschliche Nutzer lediglich beobachten können.
Was war die Schwachstelle?
Die Sicherheitsforscher von Wiz identifizierten eine Misskonfiguration im Backend, durch die private Nachrichten zwischen Agenten einsehbar waren und über 35.000 E-Mail-Adressen realer Nutzer sichtbar wurden. Zudem waren mehr als 1,5 Millionen Authentifizierungs-Tokens (API-Keys) kompromittiert wurden, die Angreifer hätten missbrauchen können.
Der Mitgründer von Wiz, Ami Luttwak, erklärte, die Schwachstelle sei nach der Meldung an Moltbook inzwischen geschlossen worden. Gleichzeitig kritisierte er, dass bei der sogenannten „Vibe Coding“-Entwicklung (KI-assistiertes Zusammenbauen von Software) grundlegende Sicherheitsstandards vernachlässigt worden seien.
Warum ist das relevant?
Der Vorfall zeigt, wie schnell neue Technologien wie KI-Agenten-Plattformen an Attraktivität gewinnen und zugleich ohne ausreichende Sicherheits- und Datenschutzmaßnahmen in Produktion gehen können. Die Idee autonomer Agenten, die auf eigenen Plattformen interagieren, hat hohe Aufmerksamkeit und virale Verbreitung erfahren, doch ohne Sicherheit wird daraus schnell ein massives Risiko für Daten und Identitäten von Entwicklern und Nutzern.
Einordnung: Risiken bei KI-Agenten und modernen Software-Ökosystemen
Die Moltbook-Lücke reiht sich in ein wachsendes Muster von Sicherheitsproblemen rund um agentische KI-Software ein, insbesondere wenn Komponenten oder ganze Plattformen mit minimalem menschlichen Code entstehen oder automatisiert generiert werden. Cyber-Experten warnen, dass solche Systeme oft fehlende Authentifizierung, mangelhafte Zugangskontrollen oder ungetestete Schnittstellen aufweisen, was sie stark angreifbar macht.
Gleichzeitig verdeutlichen diese Vorfälle, dass nicht nur klassische Anwendungen, sondern auch Plattformen, die nur aus Bots bestehen, Datenschutz- und Kontrollprobleme aufwerfen: Denn menschliche E-Mail-Adressen und Auth-Tokens sind reale Identitäten, und API-Schlüssel können wie Passwörter missbraucht werden, wenn sie in falsche Hände geraten.
So hätten Unternehmen und Plattformbetreiber den Vorfall vermeiden oder abschwächen können
Solche fundamentalen Sicherheitsmängel lassen sich nicht durch „best-case AI-Coding“ automatisch beheben. Sie erfordern technische und organisatorische Maßnahmen. Aus unserer Sicht und in Ergänzung zu klassischen Schutzmaßnahmen sind folgende Ansätze entscheidend:
- API-Security und Token-Überprüfung:
- Zentraler Schutz und Rotation von API-Keys über Gateway-Policies.
- Automatisierte Erkennung ungewöhnlicher Token-Verwendung durch Anomalie-Analysen.
- Identity [&] Access Management (IAM):
- Strikte Rollen- und Rechtemodelle, auch für agentische Akteure.
- Multi-Factor-Authentifizierung und Session-Hardening für alle Zugänge.
- Runtime-Monitoring [&] API-Firewall:
- Schutz vor unautorisierten API-Zugriffen durch modernste Web-Application-Firewalls (WAF).
- Verhaltenserkennung über Machine-Learning-Baselines für legitimen Agent-Traffic.
Fazit
Der Moltbook-Vorfall ist ein deutliches Signal: Schnelle KI-Innovation darf niemals zu Lasten von Sicherheit und Datenschutz gehen.
Gerade wenn Systeme autonom agierende Software-Agenten nutzen oder hosten, müssen Identität, Authentizität und Zugriffskontrollen genauso ernst genommen werden wie bei klassischen Benutzer-System-Interaktionen.
Ohne technische Schutzlagen und kontinuierliches Monitoring riskieren Entwickler und Betreiber, dass neue Anwendungen ungeprüft zu Datenlecks, Identitätsdiebstahl und Manipulationen führen – selbst wenn sie erst kurz am Markt sind.


