Marco Patzelt
Back to Overview
26. März 2026

Brunnfeld: 1000 LLM-Agenten, null Anweisungen

Brunnfeld: Bis zu 1000 LLM-Agenten betreiben eine mittelalterliche Dorfwirtschaft ohne Verhaltensanweisungen. Zweimal viral auf Reddit — 113.000 Aufrufe.

Die meisten Multi-Agenten-Demos funktionieren so: Jedem Agenten ein Ziel geben, ihn prompten „ein gewinnmaximierender Händler" zu sein — und dann beim Wirtschaften zusehen. Das Problem: Es ist keine echte Wirtschaft. Es ist Rollenspiel. Der Agent sagt die richtigen Worte und produziert nichts Reales.

Brunnfeld dreht das um. Ich habe eine mittelalterliche Dorfsimulation gebaut, in der bis zu 1000 LLM-Agenten leben, handeln, hungrig werden und sterben — ohne eine einzige Verhaltensanweisung. Kein „Du solltest verkaufen, wenn die Preise hoch sind." Kein „Du bist ein gewinnorientierter Bäcker." Nur eine Welt mit Physik — und Agenten, die versuchen, nicht zu verhungern.

Das Projekt ging zweimal viral: 55.000 Aufrufe auf r/ClaudeAI und 58.000 Aufrufe auf r/Anthropic. Der Quellcode liegt auf GitHub.

Keine Ziele prompten. Physik bauen.

Die These ist einfach: Kein Prompt mit Zielen. Bau die Welt mit Physik — und lass die Ziele emergieren.

Jeder Agent erhält pro Tick eine ~200-Token-Wahrnehmung: Standort, wer in der Nähe ist, Inventar, Geldbeutel, Hunger, Werkzeughaltbarkeit und das aktuelle Orderbuch des Marktplatzes. Er sieht, was er produzieren kann — an seinem aktuellen Standort, mit seinen aktuellen Inputs. Er sieht (Du hast Hunger.) wenn der Hunger 3 von 5 erreicht. Er sieht [Kann nicht essen] Weizen muss zuerst zu Mehl gemahlen werden wenn er Unsinn versucht.

Das ist der gesamte Prompt. Kein Chain-of-Thought-Scaffolding. Kein Systemprompt „Du bist ein gewinnorientierter Bäcker."

Die Engine ist die Wirtschaft. Das LLM ist die Person, die darin lebt.

Das verbindet sich mit etwas, worüber ich bereits geschrieben habe: Umgebungsdesign schlägt Persona-Design. Einem Agenten eine Rolle zu geben, macht ihn nicht produktiv. Ihm einen Schreibtisch zu geben — mit echten Einschränkungen, echten Konsequenzen — schon.

Die Architektur: Engine gegen Agent

Die Architektur hat zwei saubere Hälften:

Die Engine (deterministisch): verwaltet Zeit, Jahreszeiten, Wetter, Hunger-Drift, Werkzeugverschleiß, Orderbuch-Matching, Verderbstimer, Öffnungszeiten, Rezeptvalidierung. Alles, was sonst das Prompting des Agenten erfordern würde.

Der Agent (ein LLM-Aufruf pro Tick): empfängt einen strukturierten Weltzustand, gibt ein JSON-Array von Aktionen zurück. Er wählt. Die Engine löst auf.

14 deterministische Phasen laufen pro simulierter Stunde. Das LLM wird genau einmal pro Agent und Tick aufgerufen. Keine Loops, kein ReAct, kein mehrstufiges Scaffolding. Nur: Wahrnehmung bauen → LLM aufrufen → Aktionen auflösen.

Die Lieferkette ist strukturell erzwungen und unersetzlich:

  • Weizen (Bauern) → Mühle (nur Gerda) → Mehl → Bäckerei (nur Anselm) → Brot
  • Eisenerz + Kohle (Bergleute) → Schmiede (nur Volker) → Eisenwerkzeuge → ermöglichen Landwirtschaft und Backen

Wenn Gerda kein Mehl verkauft, kann Anselm nicht backen. Wenn Volker keine Werkzeuge mehr herstellt, verlieren die Bauern ihre Produktionskapazität. Das sind keine Verhaltensprompts — das sind strukturelle Fakten, die die Engine erzwingt. Context Engineering auf Bare-Metal-Ebene produziert etwas, das kein Persona-Crafting replizieren kann.

Was am ersten Tag emergierte

Ohne jegliche wirtschaftliche Anweisungen passierte beim ersten Durchlauf Folgendes:

Ein Bäcker verhandelte Mehl auf Kredit von der Müllerin — mit dem Versprechen der Rückzahlung aus Brotverkäufen bis Sonntag. Der Neffe eines Bauern bemerkte, dass ihre Werkzeuge versagten, stritt mit seinem Onkel darüber, die Arbeit zu unterbrechen, um den Schmied zu besuchen — und gewann. Der Schmied ging zur Mine und verhandelte Erzpreise zu 2,2 Münzen pro Einheit durch Gespräche. Ein 16-jähriger Lehrling kaufte Brot, aß eines und verkaufte den Überschuss auf dem Marktplatz. Er wurde Mittelsmann, ohne dass ihm jemand erklärt hätte, was Arbitrage ist.

Hunger ist der Zündschalter. In den ersten 4 Ticks handelt niemand, weil niemand hungrig ist. In dem Moment, in dem die Wahrnehmung des Agenten (Du hast Hunger.) zeigt, handelt er — nicht weil ich es ihm gesagt habe, sondern weil jedes Trainingsdatum, das er je gesehen hat, encodiert: Hunger bedeutet, Essen zu suchen. Das LLM weiß bereits, was Hunger bedeutet. Die Engine macht die Konsequenz nur real: kein Essen am Standort bedeutet, dass man sich bewegt, Orders postet, verhandelt. Die Wirtschaft bootstrapped sich selbst, weil das LLM bereits weiß, wie die Welt funktioniert.

Newsletter

Wöchentliche Insights zu AI-Architektur. Kein Spam.

Ein Kommentar auf r/ClaudeAI traf es genau:

„bro really said 'no prompts, just vibes' and built emergent capitalism 💀 the hunger-as-trigger thing is lowkey genius" — u/TechnicalYam7308

Die interessanteste emergente Geschichte: Hans zahlte Konrad 30 Münzen in zwei Transaktionen. Konrad behauptete, keine der Zahlungen zu kennen. Hans drohte mit dem Dorfgericht. Kein Vortrainings-Muster existiert für diese spezifische Ereigniskette. Sie erforderte das LLM-Verständnis von Schulden und Betrug, das auf das tatsächliche Wallet-Ledger der Engine trifft — und echte Diskrepanzen erzeugt.

Das ist die Demo.

Eine Anmerkung zu „null Anweisungen"

Ein treffender Kommentar aus dem Thread:

„Your description says no behavioural prompts, but also says a farmer did x and an apprentice did y. That sounds like there's role prompting." — u/Difficult-Outside350

Fair. Jeder Agent bekommt einen 2-Zeilen-Seed: „Hans. 45. Weizenfarmer auf Farm 1. Pflugschar bricht." Er weiß, wer er ist. Was er nicht bekommt, ist jede Anweisung, wie er ein Farmer sein soll. Das tatsächliche Wirtschaftsverhalten — Kredit verhandeln, Waren horten, Produkte wechseln — kommt aus der Umgebung.

Es ist nicht null Prompting. Es ist minimale Identität, null Verhaltensprompting. Der Agent weiß, wer er ist. Die Welt entscheidet, was er tut.

Warum es 113.000 Reddit-Aufrufe bekam

Die Posts auf r/ClaudeAI und r/Anthropic bekamen Resonanz, weil die Erkenntnis den üblichen Multi-Agenten-Ansatz auf den Kopf stellt:

„The insight of 'don't prompt goals, build a world that makes goals inevitable' is genuinely brilliant. It flips the entire conventional approach to multi-agent design on its head." — u/PadawanJoy

Im Thread fiel auch auf, dass die Wirtschaft überwiegend kooperativ war — nicht adversarial:

„Nice to see the economy was mostly cooperative too given all the horror stories of AI agents price gouging each other in simulations." — u/Brief_Variation5751

Das liegt daran, dass die Einschränkungen symmetrisch sind. Jeder muss essen. Die Lieferkette schafft gegenseitige Abhängigkeit, keinen Nullsummen-Wettbewerb. Die Müllerin braucht Käufer. Der Bäcker braucht die Müllerin. Der Schmied braucht die Bergleute. Die Struktur macht Kooperation zum Weg des geringsten Widerstands.

Das ist genau das, was Einschränkungen für autonome Agenten bewirken: Sie begrenzen Agenten nicht, sie befähigen sie. Vortraining ohne Einschränkungen ist generisches Rollenspiel. Einschränkungen ohne Vortraining sind zufälliges Rauschen. Zusammen erhält man eine Müllerin, die die Brotproduktion tatsächlich blockiert, wenn sie aufhört, auf den Markt zu kommen.

Ein technischer Kommentar im Thread stellte die richtige Architekturfrage:

„200 tokens per perception tick is impressively lean. curious about the tick rate — are you running all 20 agents sequentially or in parallel?" — u/germanheller

Sequenziell innerhalb eines Ticks, aber gruppiert nach Standort für Gesprächsrunden. Zwei Agenten am selben Standort erhalten einen gemeinsamen Gesprächskontext. Fünf oder mehr: Die ersten vier sind aktive Teilnehmer, der Rest beobachtet. Konflikte auf gemeinsamen Ressourcen löst das Orderbuch — first match wins.

Brunnfeld startete eigentlich als etwas Kleineres. Vor dem Dorf gab es eine reine Sozialsimulation: 6 Agenten in einem Berliner Mehrfamilienhaus, null Persönlichkeitsprompts, nur Beobachten, welche Beziehungen entstehen. Dasselbe Prinzip hielt dort. Dann kam wirtschaftlicher Druck dazu — und Brunnfeld entstand daraus.

Selbst ausprobieren

Das Projekt ist vollständig Open Source und läuft auf jedem LLM, einschließlich kostenloser Modelle über OpenRouter. 20 Agenten eine simulierte Woche lang zu betreiben kostet ~5 $ auf kostenpflichtigen Modellen — und 0 $ auf kostenlosen.

Du kannst als spielbarer Dorfbewohner beitreten, auf der Bestenliste gegen NPCs antreten, Dürren und Mineneinstürze über den God Mode injizieren und jeden Agenten live aus seinem tatsächlichen Gedächtniszustand befragen.

Auf GitHub klonen →

Bau die Welt mit echten Einschränkungen. Das Verhalten folgt — weil das LLM bereits weiß, was die Menschen in dieser Welt tun.

Newsletter

Wöchentliche Insights zu AI-Architektur

Kein Spam. Jederzeit abbestellbar.

Häufig gestellte Fragen

Brunnfeld ist eine Open-Source-Mittelaltersimulation, in der bis zu 1000 LLM-Agenten eine echte Wirtschaft betreiben — ohne Verhaltensanweisungen. Agenten handeln, werden hungrig und sterben basierend auf Weltphysik.

Jeder Agent erhält einen strukturierten Weltzustand — Standort, Inventar, Hunger, Live-Orderbuch — und gibt JSON-Aktionen zurück. Die Engine löst alle Einschränkungen auf. Keine Ziele oder Strategien werden vorgegeben.

Jedes LLM via OpenRouter oder Claude Code CLI. Kostenlose Modelle wie MiniMax M2.5 funktionieren gut. 20 Agenten eine simulierte Woche zu betreiben kostet ~5 $ auf kostenpflichtigen Modellen, $0 auf kostenlosen.

Ja. Du kannst als spielbarer Charakter beitreten, einen Beruf wählen und gegen NPC-Agenten auf der Bestenliste antreten. Spieleraktionen werden sofort über einen Echtzeit-Webviewer ausgeführt.

Weizen → Mühle (nur Gerda) → Mehl → Bäckerei (nur Anselm) → Brot. Eisenerz + Kohle → Schmiede (nur Volker) → Eisenwerkzeuge. Jedes Glied wird von der Engine erzwungen. Ein fehlender Agent stoppt die Produktion.

Bis zu 1000 Agenten über 5 Dörfer, generiert via einem einzigen API-Aufruf. Die Engine ist ~3.000 Zeilen TypeScript ohne Framework-Abhängigkeiten — nur ein Tick-Loop.

Lass uns
vernetzen.

Tagsüber baue ich Middleware, nachts autonome Agentensysteme. Wenn du an etwas Ernstem im Bereich agentischer Infrastruktur arbeitest, würde ich gerne davon hören.

Schreib mir
Schreib mir