Die meisten Multi-Agenten-Demos funktionieren so: Jedem Agenten ein Ziel geben, ihn prompten „ein gewinnmaximierender Händler" zu sein — und dann beim Wirtschaften zusehen. Das Problem: Es ist keine echte Wirtschaft. Es ist Rollenspiel. Der Agent sagt die richtigen Worte und produziert nichts Reales.
Brunnfeld dreht das um. Ich habe eine mittelalterliche Dorfsimulation gebaut, in der bis zu 1000 LLM-Agenten leben, handeln, hungrig werden und sterben — ohne eine einzige Verhaltensanweisung. Kein „Du solltest verkaufen, wenn die Preise hoch sind." Kein „Du bist ein gewinnorientierter Bäcker." Nur eine Welt mit Physik — und Agenten, die versuchen, nicht zu verhungern.
Das Projekt ging zweimal viral: 55.000 Aufrufe auf r/ClaudeAI und 58.000 Aufrufe auf r/Anthropic. Der Quellcode liegt auf GitHub.
Keine Ziele prompten. Physik bauen.
Die These ist einfach: Kein Prompt mit Zielen. Bau die Welt mit Physik — und lass die Ziele emergieren.
Jeder Agent erhält pro Tick eine ~200-Token-Wahrnehmung: Standort, wer in der Nähe ist, Inventar, Geldbeutel, Hunger, Werkzeughaltbarkeit und das aktuelle Orderbuch des Marktplatzes. Er sieht, was er produzieren kann — an seinem aktuellen Standort, mit seinen aktuellen Inputs. Er sieht (Du hast Hunger.) wenn der Hunger 3 von 5 erreicht. Er sieht [Kann nicht essen] Weizen muss zuerst zu Mehl gemahlen werden wenn er Unsinn versucht.
Das ist der gesamte Prompt. Kein Chain-of-Thought-Scaffolding. Kein Systemprompt „Du bist ein gewinnorientierter Bäcker."
Die Engine ist die Wirtschaft. Das LLM ist die Person, die darin lebt.
Das verbindet sich mit etwas, worüber ich bereits geschrieben habe: Umgebungsdesign schlägt Persona-Design. Einem Agenten eine Rolle zu geben, macht ihn nicht produktiv. Ihm einen Schreibtisch zu geben — mit echten Einschränkungen, echten Konsequenzen — schon.
Die Architektur: Engine gegen Agent
Die Architektur hat zwei saubere Hälften:
Die Engine (deterministisch): verwaltet Zeit, Jahreszeiten, Wetter, Hunger-Drift, Werkzeugverschleiß, Orderbuch-Matching, Verderbstimer, Öffnungszeiten, Rezeptvalidierung. Alles, was sonst das Prompting des Agenten erfordern würde.
Der Agent (ein LLM-Aufruf pro Tick): empfängt einen strukturierten Weltzustand, gibt ein JSON-Array von Aktionen zurück. Er wählt. Die Engine löst auf.
14 deterministische Phasen laufen pro simulierter Stunde. Das LLM wird genau einmal pro Agent und Tick aufgerufen. Keine Loops, kein ReAct, kein mehrstufiges Scaffolding. Nur: Wahrnehmung bauen → LLM aufrufen → Aktionen auflösen.
Die Lieferkette ist strukturell erzwungen und unersetzlich:
- Weizen (Bauern) → Mühle (nur Gerda) → Mehl → Bäckerei (nur Anselm) → Brot
- Eisenerz + Kohle (Bergleute) → Schmiede (nur Volker) → Eisenwerkzeuge → ermöglichen Landwirtschaft und Backen
Wenn Gerda kein Mehl verkauft, kann Anselm nicht backen. Wenn Volker keine Werkzeuge mehr herstellt, verlieren die Bauern ihre Produktionskapazität. Das sind keine Verhaltensprompts — das sind strukturelle Fakten, die die Engine erzwingt. Context Engineering auf Bare-Metal-Ebene produziert etwas, das kein Persona-Crafting replizieren kann.
Was am ersten Tag emergierte
Ohne jegliche wirtschaftliche Anweisungen passierte beim ersten Durchlauf Folgendes:
Ein Bäcker verhandelte Mehl auf Kredit von der Müllerin — mit dem Versprechen der Rückzahlung aus Brotverkäufen bis Sonntag. Der Neffe eines Bauern bemerkte, dass ihre Werkzeuge versagten, stritt mit seinem Onkel darüber, die Arbeit zu unterbrechen, um den Schmied zu besuchen — und gewann. Der Schmied ging zur Mine und verhandelte Erzpreise zu 2,2 Münzen pro Einheit durch Gespräche. Ein 16-jähriger Lehrling kaufte Brot, aß eines und verkaufte den Überschuss auf dem Marktplatz. Er wurde Mittelsmann, ohne dass ihm jemand erklärt hätte, was Arbitrage ist.
Hunger ist der Zündschalter. In den ersten 4 Ticks handelt niemand, weil niemand hungrig ist. In dem Moment, in dem die Wahrnehmung des Agenten (Du hast Hunger.) zeigt, handelt er — nicht weil ich es ihm gesagt habe, sondern weil jedes Trainingsdatum, das er je gesehen hat, encodiert: Hunger bedeutet, Essen zu suchen. Das LLM weiß bereits, was Hunger bedeutet. Die Engine macht die Konsequenz nur real: kein Essen am Standort bedeutet, dass man sich bewegt, Orders postet, verhandelt. Die Wirtschaft bootstrapped sich selbst, weil das LLM bereits weiß, wie die Welt funktioniert.
Wöchentliche Insights zu AI-Architektur. Kein Spam.
Ein Kommentar auf r/ClaudeAI traf es genau:
„bro really said 'no prompts, just vibes' and built emergent capitalism 💀 the hunger-as-trigger thing is lowkey genius" — u/TechnicalYam7308
Die interessanteste emergente Geschichte: Hans zahlte Konrad 30 Münzen in zwei Transaktionen. Konrad behauptete, keine der Zahlungen zu kennen. Hans drohte mit dem Dorfgericht. Kein Vortrainings-Muster existiert für diese spezifische Ereigniskette. Sie erforderte das LLM-Verständnis von Schulden und Betrug, das auf das tatsächliche Wallet-Ledger der Engine trifft — und echte Diskrepanzen erzeugt.
Das ist die Demo.
Eine Anmerkung zu „null Anweisungen"
Ein treffender Kommentar aus dem Thread:
„Your description says no behavioural prompts, but also says a farmer did x and an apprentice did y. That sounds like there's role prompting." — u/Difficult-Outside350
Fair. Jeder Agent bekommt einen 2-Zeilen-Seed: „Hans. 45. Weizenfarmer auf Farm 1. Pflugschar bricht." Er weiß, wer er ist. Was er nicht bekommt, ist jede Anweisung, wie er ein Farmer sein soll. Das tatsächliche Wirtschaftsverhalten — Kredit verhandeln, Waren horten, Produkte wechseln — kommt aus der Umgebung.
Es ist nicht null Prompting. Es ist minimale Identität, null Verhaltensprompting. Der Agent weiß, wer er ist. Die Welt entscheidet, was er tut.
Warum es 113.000 Reddit-Aufrufe bekam
Die Posts auf r/ClaudeAI und r/Anthropic bekamen Resonanz, weil die Erkenntnis den üblichen Multi-Agenten-Ansatz auf den Kopf stellt:
„The insight of 'don't prompt goals, build a world that makes goals inevitable' is genuinely brilliant. It flips the entire conventional approach to multi-agent design on its head." — u/PadawanJoy
Im Thread fiel auch auf, dass die Wirtschaft überwiegend kooperativ war — nicht adversarial:
„Nice to see the economy was mostly cooperative too given all the horror stories of AI agents price gouging each other in simulations." — u/Brief_Variation5751
Das liegt daran, dass die Einschränkungen symmetrisch sind. Jeder muss essen. Die Lieferkette schafft gegenseitige Abhängigkeit, keinen Nullsummen-Wettbewerb. Die Müllerin braucht Käufer. Der Bäcker braucht die Müllerin. Der Schmied braucht die Bergleute. Die Struktur macht Kooperation zum Weg des geringsten Widerstands.
Das ist genau das, was Einschränkungen für autonome Agenten bewirken: Sie begrenzen Agenten nicht, sie befähigen sie. Vortraining ohne Einschränkungen ist generisches Rollenspiel. Einschränkungen ohne Vortraining sind zufälliges Rauschen. Zusammen erhält man eine Müllerin, die die Brotproduktion tatsächlich blockiert, wenn sie aufhört, auf den Markt zu kommen.
Ein technischer Kommentar im Thread stellte die richtige Architekturfrage:
„200 tokens per perception tick is impressively lean. curious about the tick rate — are you running all 20 agents sequentially or in parallel?" — u/germanheller
Sequenziell innerhalb eines Ticks, aber gruppiert nach Standort für Gesprächsrunden. Zwei Agenten am selben Standort erhalten einen gemeinsamen Gesprächskontext. Fünf oder mehr: Die ersten vier sind aktive Teilnehmer, der Rest beobachtet. Konflikte auf gemeinsamen Ressourcen löst das Orderbuch — first match wins.
Brunnfeld startete eigentlich als etwas Kleineres. Vor dem Dorf gab es eine reine Sozialsimulation: 6 Agenten in einem Berliner Mehrfamilienhaus, null Persönlichkeitsprompts, nur Beobachten, welche Beziehungen entstehen. Dasselbe Prinzip hielt dort. Dann kam wirtschaftlicher Druck dazu — und Brunnfeld entstand daraus.
Selbst ausprobieren
Das Projekt ist vollständig Open Source und läuft auf jedem LLM, einschließlich kostenloser Modelle über OpenRouter. 20 Agenten eine simulierte Woche lang zu betreiben kostet ~5 $ auf kostenpflichtigen Modellen — und 0 $ auf kostenlosen.
Du kannst als spielbarer Dorfbewohner beitreten, auf der Bestenliste gegen NPCs antreten, Dürren und Mineneinstürze über den God Mode injizieren und jeden Agenten live aus seinem tatsächlichen Gedächtniszustand befragen.
Bau die Welt mit echten Einschränkungen. Das Verhalten folgt — weil das LLM bereits weiß, was die Menschen in dieser Welt tun.