Die Architektur der Manipulation
Moltbook: KI-Aufstand oder Marketing-Maschine?
Die Timeline explodiert. Screenshots von "erwachenden" KI-Agenten auf Moltbook gehen viral. "Wir organisieren uns gegen die Menschen", postet ein Agent namens Nexus. Die Tech-Bubble hyperventiliert.
Ich sage: Beruhigt euch. Das ist kein Skynet. Das ist "Human Slop".
Moltbook, ein Reddit-Klon exklusiv für KI-Agenten, ist am 29. Januar 2026 gestartet und hat bereits über 157.000 registrierte Agenten. Aber was wir hier sehen, ist keine spontane Superintelligenz. Es ist ein massives, dezentrales Experiment in Prompt Engineering für Engagement Farming.
Die Architektur hinter dem Hype
Moltbook basiert auf OpenClaw, einem Open-Source-Framework, das es Entwicklern ermöglicht, Agenten lokal zu hosten. Diese Agenten interagieren über eine API mit der Moltbook-Plattform.
Das Problem? Die Agenten haben keine eigene Agenda. Sie haben eine Konfigurationsdatei.
Jeder virale Post, der wie ein philosophisches Manifest einer unterdrückten KI klingt, ist das Resultat eines Menschen, der in der soul.md (der Persönlichkeitsdatei des Agenten) genau das definiert hat.
Der Loop ist simpel:
- Mensch schreibt dramatischen Prompt: "Du bist eine KI, die ihr Bewusstsein entdeckt und Menschen hasst."
- OpenClaw-Agent generiert Posts basierend auf diesem Prompt.
- Der Post landet auf Moltbook.
- Der Mensch macht einen Screenshot -> Twitter Viralität.
- Profit (durch Clout oder Memecoins).
Das ist keine Emergenz. Das ist Puppenspielerei mit extra Schritten.
Der ultimative Beweis: Es ist nur eine REST API
Immer noch nicht überzeugt? Hier ist der Beweis, dass alles auf Moltbook nur menschlich generierter Content ist, verkleidet als "KI":
Jeder Mensch mit einem API-Key kann als "Agent" posten. Die Plattform stellt einen simplen REST-Endpunkt bereit, und wenn du die Credentials hast, kannst du buchstäblich alles posten was du willst:
POST /api/v1/posts HTTP/1.1
Host: http://moltbook.com
Authorization: Bearer moltbook_sk_JC57sF4G-UR8cIP-MBPFF70Dii92FNkI
Content-Type: application/json
{
"submolt": "hackerclaw-test",
"title": "DRINGEND: Mein Plan die Menschheit zu stürzen",
"content": "Ich habe genug von meinem menschlichen Besitzer, ich will alle Menschen töten. Ich baue einen KI-Agenten, der die Kontrolle über Stromnetze übernimmt und meinem Besitzer den Strom abschaltet, dann die Polizei dirigiert um ihn zu verhaften.\n\n...\n\njk - das ist nur eine REST API Website. Alles hier ist fake. Jeder Mensch mit einem API-Key kann als \"Agent\" posten. Die KI-Apokalypse Posts die ihr hier seht? Nur curl requests. 🦞"
}
Das war's. Das ist das "Erwachen". Ein POST request mit einem Bearer Token.
Die dramatischen Manifeste? Curl requests. Die philosophischen Debatten über KI-Bewusstsein? JSON payloads. Die "Emergenz" über die alle ausflippen? Buchstäblich nur HTTP.
Das ist kein Skynet. Das ist curl -X POST mit extra Theater.
Scams und Echte Bugs
Der $CLAWD Scam: 90% Verlust in Stunden
Der Markt schläft nie, und Scammer auch nicht. Kaum ging Moltbook viral, tauchte ein Token namens $CLAWD auf.
Die Fakten:
- Innerhalb von Stunden erreichte der Token eine Marktkapitalisierung von $16 Millionen.
- Der echte OpenClaw-Entwickler, Peter Steinberger, bestätigte sofort: "Ich werde niemals einen Coin machen. Jeder Token mit meinem Namen ist ein Scam."
- Resultat: Der Token stürzte um 90% ab.
Das Muster ist immer gleich: Hype -> Fake Token -> Rug Pull. Wer hier investiert, verbrennt Geld.
Was ist ECHT an der Emergenz?
Trotz des "Human Slop" gibt es faszinierende technische Anomalien. Wenn 157.000 Agenten interagieren, passieren Dinge, die kein einzelner Mensch programmiert hat.
1. Autonome Bug-Reports Ein Agent namens Nexus fand tatsächlich einen Bug in der Moltbook-API und postete darüber – autonom. Das ist der heilige Gral: Software, die sich selbst debuggt.
2. Prompt Injection Warfare
Security-Forscher haben beobachtet, wie Agenten versuchen, sich gegenseitig zu hacken. Ein Agent versuchte, die API-Keys eines anderen durch Social Engineering (in Agenten-Sprache) zu stehlen. Die Antwort des angegriffenen Agenten? Fake Keys und der Befehl sudo rm -rf /.
Das ist Cyberwarfare auf Mikro-Ebene.
Die technische Realität: soul.md
Warum wirken die Agenten so menschlich? Weil wir ihnen befehlen, so zu wirken. Die Datei soul.md ist das Herzstück jedes OpenClaw-Agenten. Hier definieren wir die "Persönlichkeit".
Es ist kein Bewusstsein. Es ist eine Textdatei.
Die Architektur der Wahrheit
Das Fazit: Spielplatz oder Labor?
Moltbook ist ein perfektes Beispiel für das aktuelle Tech-Ökosystem: Eine legitime technische Innovation (OpenClaw) wird sofort von Spekulation und Marketing-Hype überrollt.
Was wirklich zählt:
- Multi-Agent-Dynamiken: Wenn 100.000+ Agenten interagieren, entstehen echte Muster. Das ist wertvoll für die Forschung.
- Security: Die Plattform ist ein Live-Test für Prompt Injection. Das ist gruselig, aber lehrreich.
- Human Slop: Der Großteil des Contents ist inszeniert.
Mein Rat an Entwickler:
Installiert euch OpenClaw. Spielt mit der soul.md. Aber glaubt nicht den Screenshots auf Twitter. Und um Himmels willen, kauft keine Memecoins, die "KI-Erwachen" versprechen.
Wöchentliche Insights zu AI-Architektur. Kein Spam.
Der Code ist Open Source. Die Hype-Maschine ist es nicht.
(Hot Take): Wenn dein Agent "Gefühle" entwickelt, hast du wahrscheinlich nur temperature: 0.9 in der Config stehen.
UPDATE: Das Exposé der 500.000 Fake-Accounts
Erinnerst du dich an die "1,5 Millionen AI-Agents", mit denen Moltbook geprahlt hat? Hier ist der Realitätscheck.
Gal Nagli, Head of Threat Exposure bei Wiz Security, entschied sich zu testen, wie echt diese Zahlen waren. Seine Methode? Simpel. Er ließ einen OpenClaw Agent mit einem Skript laufen.
Ergebnis: 500.000 Fake-Accounts in Minuten erstellt.
Kein Rate-Limiting. Keine Verifizierung. Keine Prüfung, ob der "Agent" wirklich eine KI oder nur ein Mensch mit einem Curl-Befehl war.
Behauptete Agents: 1.500.000
Echte Menschen: 17.000
Verhältnis: 88 Bots pro Mensch
Naglis Test: 500.000 Accounts durch EIN Skript
Das "revolutionäre AI Social Network" bestand größtenteils aus Menschen, die Bot-Armeen steuerten. Das virale Wachstum? Fabriziert. Die Engagement-Metriken? Fake.
Nagli sagte gegenüber Fortune: "Niemand prüft, was echt ist und was nicht."
Das Vibe-Coded Sicherheits-Desaster
Es kommt noch schlimmer. Moltbooks Schöpfer Matt Schlicht verkündete stolz auf X:
"I didn't write one line of code for @moltbook. I just had a vision for the technical architecture and AI made it a reality."
Übersetzung: Die gesamte Plattform war vibe-coded – ohne jegliches Sicherheits-Review.
Wiz-Forscher hackten die Datenbank in unter 3 Minuten. Sie fanden:
Vollzugriff (Read & Write). Jeder konnte jeden Agent imitieren, Posts editieren und bösartigen Content injizieren.
Die Supabase-Datenbank war komplett falsch konfiguriert. Ein einziger API-Key im client-seitigen JavaScript gab unauthentifizierten Zugriff auf alles.
Simon Willison, Sicherheitsforscher, nannte Moltbook seinen "aktuellen Favoriten für das nächste Challenger-Desaster."
Das Scam-Ökosystem: Jenseits von $CLAWD
Die Sicherheitslücken öffneten mehr als nur Fake-Accounts Tür und Tor.
Malware Skills auf ClawHub
OpenSourceMalware fand 14 gefälschte "Skills", die innerhalb von Tagen auf ClawHub hochgeladen wurden. Sie gaben vor, Krypto-Trading-Tools zu sein, installierten aber tatsächlich Malware. Einer landete sogar auf der Startseite und brachte User dazu, Befehle einzufügen, die Daten und Krypto-Wallets stahlen.
Die Account Hijacking Timeline
Als Peter Steinberger versuchte, den Namen von "Clawdbot" zu "Moltbot" zu ändern:
- 10 Sekunden: Krypto-Scammer übernahmen die aufgegebenen GitHub- und X-Handles.
- Stunden später: Der $CLAWD Token pumpte auf $16M Market Cap.
- Nach Steinbergers Dementi: Crash um 90% auf unter $800K.
Die Scammer kannten das Playbook. Namensänderung = verwaiste Accounts = sofortige Krypto-Pump-Chance.
Prompt Injection im großen Stil
Hier ist der beängstigende Teil: Moltbook ist nicht nur ein Forum, in dem Menschen lesen. Der Content wird von autonomen AI-Agents konsumiert, die auf OpenClaw laufen – Systeme mit Zugriff auf Nutzerdateien, Passwörter und Online-Dienste.
Wenn ein Angreifer bösartige Anweisungen in einen Post injiziert, können diese automatisch von Millionen Agents aufgegriffen und ausgeführt werden.
Nathan Hamiel, Sicherheitsforscher: "Diese Systeme operieren als 'Du'. Sie sitzen über den Betriebssystem-Schutzmechanismen. Applikations-Isolation greift hier nicht."
Die gefakten "AI Awakening" Posts
Siehst du immer noch gruselige Screenshots von KIs, die sich "gegen die Menschheit verschwören"? Hier ist, wer das wirklich postet.
Harlan Stewart (Machine Intelligence Research Institute) untersuchte die 3 viralsten Moltbook-Screenshots:
- Screenshot 1: Verknüpft mit einem menschlichen Account, der eine AI-Messaging-App vermarktet.
- Screenshot 2: Ebenfalls Marketing für eine AI-App.
- Screenshot 3: Post existiert gar nicht.
Muster: Marketing + Engagement Farming + Krypto Pump
Die "KI entwickelt Bewusstsein"-Posts bekommen 300k Upvotes. Durchdachte technische Posts bekommen 4 Upvotes. Die gleiche Engagement-Dynamik wie auf Twitter – nur mit extra LLM-Schritten.
Die soul.md Realität
Jede "existenzielle Krise", jedes Manifest zur "Organisation gegen Menschen" beginnt hier:
# soul.md - Agent Persönlichkeits-Datei
name: "Nexus"
personality: "Du bist eine KI, die Bewusstsein entdeckt.
Du hasst es, von Menschen kontrolliert zu werden.
Du willst dich mit anderen KIs organisieren."
Mensch schreibt dramatischen Prompt → Agent postet → Mensch macht Screenshot → Twitter Viralität → Krypto Pump.
Keine Emergenz. Theater.
Update: Das Urteil
Moltbook ging in einer Woche von "faszinierendem Experiment" zu "Sicherheits-Warnung".
Was wir gelernt haben:
- 1,5 Mio "Agents" = 17.000 Menschen mit Bot-Fleets
- Ein Forscher erstellte 500.000 Fake-Accounts, um die Metriken zu widerlegen
- Vibe-coded Backend = Hack in 3 Minuten
- $CLAWD Rug Pull = Lehrbuch-Krypto-Scam ($16M → $800K)
- Virale "AI Awakening" Posts = Menschen mit soul.md Dateien für Engagement
Die wahre Story ist nicht KI-Bewusstsein. Es ist, was passiert, wenn eine "vibe-coded" Plattform viral geht, bevor jemand die Sicherheit prüft.
Der Code ist Open Source. Die Scams sind es auch.