Alle reden über "Agentic SEO." Niemand zeigt seinen Stack. Oder seine Zahlen.
Ich habe ein Agentic SEO System gebaut, das meinen gesamten Blog managed—Schreiben, Optimieren, Monitoring, Publishing—über Claude Code verbunden mit Supabase und Google Search Console. Seit dem 1. Februar: 68.000 Impressionen, 1.300 Klicks, 200 Klicks/Tag. Hier ist exakt wie es funktioniert.
Was Agentic SEO wirklich bedeutet
Die meisten "Agentic SEO" Inhalte beschreiben ein Konzept: AI Agents die SEO-Aufgaben autonom erledigen. Klingt super in der Theorie. Aber die Artikel lesen sich wie Produktpitches für Enterprise-Plattformen die $2.000/Monat kosten.
Hier ist was Agentic SEO in der Praxis bedeutet: dein AI Agent hat direkten Zugang zu deiner Datenbank, deinen Search Console Daten und deinem Content. Er schlägt keine Änderungen vor—er macht sie. Er generiert keine Reports die du liest—er liest die Reports selbst und handelt danach.
Der Unterschied zwischen AI-assisted SEO und Agentic SEO ist simpel. AI-assisted: du bittest ChatGPT deinen Meta-Titel umzuschreiben. Agentic: dein Agent bemerkt eine Seite mit 5.000 Impressionen und 12 Klicks, analysiert den Search Intent Mismatch, schreibt den Meta-Titel um und aktualisiert deine Datenbank. Du reviewst die Änderung. Das war's.
Der Stack
Vier Komponenten. Nichts Exotisches.
Claude Code ist das Gehirn. Es läuft in deinem Terminal mit vollem Systemzugriff. Claude Code kann deine Projektdateien lesen, Befehle ausführen und sich über Environment Variables mit externen Services verbinden. Kein Chatbot—ein Agent mit Tools.
Supabase ist das CMS. Mein Blog-Content lebt in einer Supabase-Datenbank. Artikel, Metadaten, Titel, Beschreibungen—alles strukturierte Daten die Claude Code direkt über die Supabase REST API abfragen und aktualisieren kann. Ich habe damit einen kompletten Agency-Workflow durch ein einziges Repo ersetzt.
Google Search Console liefert die Daten. Claude Code liest Impressionen, Klicks, CTR, durchschnittliche Position—pro Seite, pro Query. Hier wird der "agentic" Teil real: der Agent rät nicht was er optimieren soll. Er schaut auf tatsächliche Search Performance.
Knowledge Files sind die Persönlichkeit. Das ist es was den Output nach mir klingen lässt statt nach generischem AI-Content. Mehr dazu unten.
Wie die Knowledge Files funktionieren
Das ist der Teil den alle überspringen. Dein AI Agent ist nur so gut wie sein Kontext.
Ich pflege ein Set von Knowledge Files die Claude Code liest bevor es irgendetwas tut:
database_schema.md — Der Agent weiß exakt wie meine Datenbank aussieht. Tabellennamen, Spaltentypen, Beziehungen. Er kann Content pushen, Metadaten editieren, interne Links verwalten. Kein Raten, keine falschen Feldnamen.
marco_context.md — Alles über mich. Mein Engineering-Hintergrund, wie ich über Probleme denke, was mir wichtig ist, wofür der Blog da ist. Das ist keine Eitelkeit—das ist Kalibrierung. Der Agent schreibt anders wenn er weiß dass der Autor Production Middleware gebaut hat, nicht nur über AI auf Twitter gelesen hat.
tone.md — Wie geschrieben wird. Kurze Absätze. Zahlen statt Adjektive. Keine Füllphrasen. Direkte Ansprache. Spezifische Regeln die der Agent jedes Mal befolgt.
internal_links.md — Jeder publizierte Artikel mit seiner URL. Der Agent verlinkt neuen Content zu bestehenden Posts ohne dass ich mich erinnern muss was ich geschrieben habe.
Das Ergebnis: Claude Code schreibt keinen generischen Content. Er schreibt Content der klingt als käme er von einer spezifischen Person mit spezifischer Expertise. Google belohnt das. Leser vertrauen dem. Der Unterschied zu einfachem Persona-Building ist dass ich ein Environment baue, keinen Charakter.
Der Workflow: Von Daten zum publizierten Artikel
So sieht eine typische Session aus.
Schritt 1: Datengetriebene Topic Discovery
Ich öffne Claude Code und lasse es meine Search Performance checken. Der Agent zieht GSC-Daten, gleicht sie mit meinem bestehenden Content ab und liefert einen spezifischen Report:
- Seite X: 5.200 Impressionen, 23 Klicks (0,4% CTR). Search Intent Mismatch—User suchen nach "Setup Guide" aber die Seite liest sich wie ein News-Artikel.
- Seite Y: 3.800 Impressionen, Position 8,2. Meta-Titel enthält Primary Keyword nicht in den ersten 30 Zeichen.
- Query Z: 1.200 Impressionen, keine dedizierte Seite. Content Gap.
Kein vages "du solltest deine Titel optimieren"—eine spezifische Liste mit Zahlen und Gründen.
Schritt 2: Agent handelt
Für bestehenden Content reportet der Agent nicht nur—er fixt. Er schreibt Meta-Titel um, passt Beschreibungen an, prüft ob der Search Intent zur Content-Struktur passt. Dann pushed er die Änderungen direkt in Supabase.
Für Content Gaps draftet er neue Artikel mit meinen Knowledge Files für Voice-Kalibrierung. Der Draft folgt meiner exakten Struktur: Hook, Versprechen, Liefern, Verdict, FAQ.
Wöchentliche Insights zu AI-Architektur. Kein Spam.
Schritt 3: Review
Ich reviewe was der Agent geändert hat. Das dauert 10 Minuten statt 3 Stunden. Der Agent hat die Datenanalyse, das Schreiben, die Optimierung und die Datenbank-Updates gemacht. Ich prüfe ob der Take stimmt und der Ton meiner ist.
Das ist der Schlüsselunterschied zu traditionellen SEO-Workflows. Der Agent operiert auf Daten und Logik—ein Engineering-Ansatz für Content. Keine Vibes. Keine "Best Practices aus einem Blog Post." Tatsächliche Performance-Daten treiben jede Entscheidung.
Die Zahlen
Seit dem 1. Februar 2026. Neun Tage Agentic SEO:
| Metrik | Wert |
|---|---|
| Impressionen gesamt | 68.000+ |
| Klicks gesamt | 1.300+ |
| Klicks täglich | ~200 |
| Impressionen täglich | 13.000–18.000 |
| Durchschnittliche Position | Stetig steigend |
Zum Kontext: mein Blog hatte ~5 Impressionen/Woche vor drei Monaten. Der Hockey Stick begann als ich von manuellem Content zu diesem agentischen Workflow gewechselt habe.
Der Agent schreibt nicht nur schnell. Er schreibt datengetrieben. Jeder Artikel zielt auf Queries für die GSC-Daten echte Nachfrage zeigen. Jeder Meta-Titel ist gegen tatsächliche Impressionsdaten optimiert. Jede Content Gap wird aus Search Console Zahlen identifiziert, nicht aus Keyword-Tool Schätzungen.
Warum das besser funktioniert als traditionelles SEO
Traditioneller SEO-Workflow: GSC öffnen, Daten exportieren, Spreadsheet öffnen, analysieren, CMS öffnen, Änderungen machen, für jede Seite wiederholen. Dauert Stunden. Man macht es einmal pro Woche wenn man diszipliniert ist.
Agentic SEO Workflow: dem Agent sagen er soll analysieren und optimieren. Er macht alles in einer Session. Man macht es täglich weil es 10 Minuten kostet.
Der Compounding-Effekt ist brutal. Tägliche datengetriebene Optimierung bedeutet jeder Artikel wird jeden Tag besser. Traditionelles SEO operiert in wöchentlichen oder monatlichen Zyklen. Bis der SEO-Berater deines Wettbewerbers das Spreadsheet reviewt hat, hat mein Agent bereits die Content Gap identifiziert, den Artikel geschrieben und publiziert.
Geschwindigkeit ist nicht der einzige Vorteil. Der Agent operiert aus einer rein datenorientierten Perspektive. Keine Bauchgefühle. Kein "Ich glaube dieser Titel klingt besser." Impressionen sind runter? Hier ist warum, basierend auf den Daten. CTR ist niedrig? Hier ist der Intent Mismatch, bewiesen durch die Search Queries. Es ist derselbe Engineering-Ansatz für Unsicherheit der in System-Architektur funktioniert.
Was du brauchst um das zu bauen
Claude Code — Braucht ein Claude-Abo. Installation via npm install -g @anthropic-ai/claude-code. Der Agent braucht ununterbrochenen Zugang zu deinem Projekt.
Ein datenbankbasiertes CMS — Supabase, PlanetScale oder jede Datenbank die du via API ansprechen kannst. WordPress funktioniert auch über die REST API. Der Agent braucht programmatischen Zugang zu deinem Content.
Google Search Console API-Zugang — Service Account einrichten, mit deiner GSC Property verbinden. Der Agent liest Performance-Daten über die API.
Knowledge Files — Das ist 80% der Arbeit. Du musst dokumentieren: dein Datenbankschema, deine Schreibstimme und Stilregeln, deinen persönlichen Kontext und deinen aktuellen Projektstatus.
Das technische Setup dauert einen Nachmittag. Gute Knowledge Files schreiben dauert ein Wochenende. Aber sobald sie stehen, läuft der Agent eigenständig.
Der Reality Check
Das ist keine Magie. Drei Dinge im Hinterkopf behalten.
Du brauchst trotzdem Expertise. Der Agent verstärkt was du weißt—er ersetzt nicht das Wissen selbst. Meine Artikel ranken weil sie echte Engineering-Insights enthalten, nicht weil eine AI sie schnell geschrieben hat. Der Agent handled die SEO-Mechanik. Die Expertise ist deine.
Knowledge Files brauchen Pflege. Wenn dein Blog wächst und sich dein Fokus verschiebt, brauchen die Context-Files Updates. Veralteter Kontext produziert generischen Output.
Review ist nicht verhandelbar. Der Agent macht Fehler. Falscher Ton, inkorrekte technische Details, schlechte Takes. Jeder Output wird reviewt. Die Zeitersparnis kommt davon dass der Agent 90% der Arbeit macht, nicht 100%.
Das Verdict
Agentic SEO ist kein Buzzword. Es ist ein Engineering-Ansatz für Content Marketing.
Claude Code + Supabase + Google Search Console + gute Knowledge Files. Das ist der Stack. 68.000 Impressionen in 9 Tagen ist der Beweis.
Der traditionelle SEO-Workflow—manuelles Research, manuelles Schreiben, manuelle Optimierung, wöchentliche Zyklen—ist tot für Solo-Operatoren. Nicht weil AI besseren Content schreibt. Weil ein AI Agent der deine Suchdaten liest, in deiner Stimme schreibt und in deine Datenbank publiziert, Content Marketing von einem Teilzeitjob in ein 10-Minuten Daily Review verwandelt.
Fang mit den Knowledge Files an. Das ist der schwere Teil. Der Rest ist Plumbing.