Marco Patzelt
Back to Overview
9. Februar 2026

Agentic SEO: 68k Impressionen in 9 Tagen mit Claude Code

Agentic SEO mit Claude Code, Supabase & GSC—68k Impressionen in 9 Tagen. Kompletter Stack, echte Zahlen, Schritt-für-Schritt. Keine Theorie, nur Beweis.

Alle reden über "Agentic SEO." Niemand zeigt seinen Stack. Oder seine Zahlen.

Ich habe ein Agentic SEO System gebaut, das meinen gesamten Blog managed—Schreiben, Optimieren, Monitoring, Publishing—über Claude Code verbunden mit Supabase und Google Search Console. Seit dem 1. Februar: 68.000 Impressionen, 1.300 Klicks, 200 Klicks/Tag. Hier ist exakt wie es funktioniert.

Was Agentic SEO wirklich bedeutet

Die meisten "Agentic SEO" Inhalte beschreiben ein Konzept: AI Agents die SEO-Aufgaben autonom erledigen. Klingt super in der Theorie. Aber die Artikel lesen sich wie Produktpitches für Enterprise-Plattformen die $2.000/Monat kosten.

Hier ist was Agentic SEO in der Praxis bedeutet: dein AI Agent hat direkten Zugang zu deiner Datenbank, deinen Search Console Daten und deinem Content. Er schlägt keine Änderungen vor—er macht sie. Er generiert keine Reports die du liest—er liest die Reports selbst und handelt danach.

Der Unterschied zwischen AI-assisted SEO und Agentic SEO ist simpel. AI-assisted: du bittest ChatGPT deinen Meta-Titel umzuschreiben. Agentic: dein Agent bemerkt eine Seite mit 5.000 Impressionen und 12 Klicks, analysiert den Search Intent Mismatch, schreibt den Meta-Titel um und aktualisiert deine Datenbank. Du reviewst die Änderung. Das war's.

Der Stack

Vier Komponenten. Nichts Exotisches.

Claude Code ist das Gehirn. Es läuft in deinem Terminal mit vollem Systemzugriff. Claude Code kann deine Projektdateien lesen, Befehle ausführen und sich über Environment Variables mit externen Services verbinden. Kein Chatbot—ein Agent mit Tools.

Supabase ist das CMS. Mein Blog-Content lebt in einer Supabase-Datenbank. Artikel, Metadaten, Titel, Beschreibungen—alles strukturierte Daten die Claude Code direkt über die Supabase REST API abfragen und aktualisieren kann. Ich habe damit einen kompletten Agency-Workflow durch ein einziges Repo ersetzt.

Google Search Console liefert die Daten. Claude Code liest Impressionen, Klicks, CTR, durchschnittliche Position—pro Seite, pro Query. Hier wird der "agentic" Teil real: der Agent rät nicht was er optimieren soll. Er schaut auf tatsächliche Search Performance.

Knowledge Files sind die Persönlichkeit. Das ist es was den Output nach mir klingen lässt statt nach generischem AI-Content. Mehr dazu unten.

Wie die Knowledge Files funktionieren

Das ist der Teil den alle überspringen. Dein AI Agent ist nur so gut wie sein Kontext.

Ich pflege ein Set von Knowledge Files die Claude Code liest bevor es irgendetwas tut:

database_schema.md — Der Agent weiß exakt wie meine Datenbank aussieht. Tabellennamen, Spaltentypen, Beziehungen. Er kann Content pushen, Metadaten editieren, interne Links verwalten. Kein Raten, keine falschen Feldnamen.

marco_context.md — Alles über mich. Mein Engineering-Hintergrund, wie ich über Probleme denke, was mir wichtig ist, wofür der Blog da ist. Das ist keine Eitelkeit—das ist Kalibrierung. Der Agent schreibt anders wenn er weiß dass der Autor Production Middleware gebaut hat, nicht nur über AI auf Twitter gelesen hat.

tone.md — Wie geschrieben wird. Kurze Absätze. Zahlen statt Adjektive. Keine Füllphrasen. Direkte Ansprache. Spezifische Regeln die der Agent jedes Mal befolgt.

internal_links.md — Jeder publizierte Artikel mit seiner URL. Der Agent verlinkt neuen Content zu bestehenden Posts ohne dass ich mich erinnern muss was ich geschrieben habe.

Das Ergebnis: Claude Code schreibt keinen generischen Content. Er schreibt Content der klingt als käme er von einer spezifischen Person mit spezifischer Expertise. Google belohnt das. Leser vertrauen dem. Der Unterschied zu einfachem Persona-Building ist dass ich ein Environment baue, keinen Charakter.

Der Workflow: Von Daten zum publizierten Artikel

So sieht eine typische Session aus.

Schritt 1: Datengetriebene Topic Discovery

Ich öffne Claude Code und lasse es meine Search Performance checken. Der Agent zieht GSC-Daten, gleicht sie mit meinem bestehenden Content ab und liefert einen spezifischen Report:

  • Seite X: 5.200 Impressionen, 23 Klicks (0,4% CTR). Search Intent Mismatch—User suchen nach "Setup Guide" aber die Seite liest sich wie ein News-Artikel.
  • Seite Y: 3.800 Impressionen, Position 8,2. Meta-Titel enthält Primary Keyword nicht in den ersten 30 Zeichen.
  • Query Z: 1.200 Impressionen, keine dedizierte Seite. Content Gap.

Kein vages "du solltest deine Titel optimieren"—eine spezifische Liste mit Zahlen und Gründen.

Schritt 2: Agent handelt

Für bestehenden Content reportet der Agent nicht nur—er fixt. Er schreibt Meta-Titel um, passt Beschreibungen an, prüft ob der Search Intent zur Content-Struktur passt. Dann pushed er die Änderungen direkt in Supabase.

Für Content Gaps draftet er neue Artikel mit meinen Knowledge Files für Voice-Kalibrierung. Der Draft folgt meiner exakten Struktur: Hook, Versprechen, Liefern, Verdict, FAQ.

Newsletter

Wöchentliche Insights zu AI-Architektur. Kein Spam.

Schritt 3: Review

Ich reviewe was der Agent geändert hat. Das dauert 10 Minuten statt 3 Stunden. Der Agent hat die Datenanalyse, das Schreiben, die Optimierung und die Datenbank-Updates gemacht. Ich prüfe ob der Take stimmt und der Ton meiner ist.

Das ist der Schlüsselunterschied zu traditionellen SEO-Workflows. Der Agent operiert auf Daten und Logik—ein Engineering-Ansatz für Content. Keine Vibes. Keine "Best Practices aus einem Blog Post." Tatsächliche Performance-Daten treiben jede Entscheidung.

Die Zahlen

Seit dem 1. Februar 2026. Neun Tage Agentic SEO:

MetrikWert
Impressionen gesamt68.000+
Klicks gesamt1.300+
Klicks täglich~200
Impressionen täglich13.000–18.000
Durchschnittliche PositionStetig steigend

Zum Kontext: mein Blog hatte ~5 Impressionen/Woche vor drei Monaten. Der Hockey Stick begann als ich von manuellem Content zu diesem agentischen Workflow gewechselt habe.

Der Agent schreibt nicht nur schnell. Er schreibt datengetrieben. Jeder Artikel zielt auf Queries für die GSC-Daten echte Nachfrage zeigen. Jeder Meta-Titel ist gegen tatsächliche Impressionsdaten optimiert. Jede Content Gap wird aus Search Console Zahlen identifiziert, nicht aus Keyword-Tool Schätzungen.

Warum das besser funktioniert als traditionelles SEO

Traditioneller SEO-Workflow: GSC öffnen, Daten exportieren, Spreadsheet öffnen, analysieren, CMS öffnen, Änderungen machen, für jede Seite wiederholen. Dauert Stunden. Man macht es einmal pro Woche wenn man diszipliniert ist.

Agentic SEO Workflow: dem Agent sagen er soll analysieren und optimieren. Er macht alles in einer Session. Man macht es täglich weil es 10 Minuten kostet.

Der Compounding-Effekt ist brutal. Tägliche datengetriebene Optimierung bedeutet jeder Artikel wird jeden Tag besser. Traditionelles SEO operiert in wöchentlichen oder monatlichen Zyklen. Bis der SEO-Berater deines Wettbewerbers das Spreadsheet reviewt hat, hat mein Agent bereits die Content Gap identifiziert, den Artikel geschrieben und publiziert.

Geschwindigkeit ist nicht der einzige Vorteil. Der Agent operiert aus einer rein datenorientierten Perspektive. Keine Bauchgefühle. Kein "Ich glaube dieser Titel klingt besser." Impressionen sind runter? Hier ist warum, basierend auf den Daten. CTR ist niedrig? Hier ist der Intent Mismatch, bewiesen durch die Search Queries. Es ist derselbe Engineering-Ansatz für Unsicherheit der in System-Architektur funktioniert.

Was du brauchst um das zu bauen

Claude Code — Braucht ein Claude-Abo. Installation via npm install -g @anthropic-ai/claude-code. Der Agent braucht ununterbrochenen Zugang zu deinem Projekt.

Ein datenbankbasiertes CMS — Supabase, PlanetScale oder jede Datenbank die du via API ansprechen kannst. WordPress funktioniert auch über die REST API. Der Agent braucht programmatischen Zugang zu deinem Content.

Google Search Console API-Zugang — Service Account einrichten, mit deiner GSC Property verbinden. Der Agent liest Performance-Daten über die API.

Knowledge Files — Das ist 80% der Arbeit. Du musst dokumentieren: dein Datenbankschema, deine Schreibstimme und Stilregeln, deinen persönlichen Kontext und deinen aktuellen Projektstatus.

Das technische Setup dauert einen Nachmittag. Gute Knowledge Files schreiben dauert ein Wochenende. Aber sobald sie stehen, läuft der Agent eigenständig.

Der Reality Check

Das ist keine Magie. Drei Dinge im Hinterkopf behalten.

Du brauchst trotzdem Expertise. Der Agent verstärkt was du weißt—er ersetzt nicht das Wissen selbst. Meine Artikel ranken weil sie echte Engineering-Insights enthalten, nicht weil eine AI sie schnell geschrieben hat. Der Agent handled die SEO-Mechanik. Die Expertise ist deine.

Knowledge Files brauchen Pflege. Wenn dein Blog wächst und sich dein Fokus verschiebt, brauchen die Context-Files Updates. Veralteter Kontext produziert generischen Output.

Review ist nicht verhandelbar. Der Agent macht Fehler. Falscher Ton, inkorrekte technische Details, schlechte Takes. Jeder Output wird reviewt. Die Zeitersparnis kommt davon dass der Agent 90% der Arbeit macht, nicht 100%.

Das Verdict

Agentic SEO ist kein Buzzword. Es ist ein Engineering-Ansatz für Content Marketing.

Claude Code + Supabase + Google Search Console + gute Knowledge Files. Das ist der Stack. 68.000 Impressionen in 9 Tagen ist der Beweis.

Der traditionelle SEO-Workflow—manuelles Research, manuelles Schreiben, manuelle Optimierung, wöchentliche Zyklen—ist tot für Solo-Operatoren. Nicht weil AI besseren Content schreibt. Weil ein AI Agent der deine Suchdaten liest, in deiner Stimme schreibt und in deine Datenbank publiziert, Content Marketing von einem Teilzeitjob in ein 10-Minuten Daily Review verwandelt.

Fang mit den Knowledge Files an. Das ist der schwere Teil. Der Rest ist Plumbing.

Newsletter

Wöchentliche Insights zu AI-Architektur

Kein Spam. Jederzeit abbestellbar.

Häufig gestellte Fragen

Agentic SEO nutzt autonome AI Agents um SEO end-to-end zu managen—Suchdaten analysieren, Content schreiben, Metadaten optimieren und publizieren—mit minimalem menschlichem Eingriff. Der Agent handelt eigenständig auf Basis von Daten.

Claude Code, ein datenbankbasiertes CMS wie Supabase oder WordPress, und Google Search Console API-Zugang. Plus gut geschriebene Knowledge Files für Voice-Kalibrierung, Datenbankschema und Projektkontext.

Claude Code greift über API-Credentials in Environment Variables auf Google Search Console zu. Es fragt Impressionen, Klicks, CTR und Position pro Seite und Query ab und nutzt die Daten für Optimierungen.

In 9 Tagen: 68.000 Impressionen und 1.300 Klicks, durchschnittlich 200 Klicks pro Tag. Der Blog wuchs von fast null auf diese Zahlen in etwa 3 Monaten mit diesem agentischen Ansatz.

Markdown-Dokumente die dem AI Agent Kontext über Schreibstimme, Datenbankstruktur, Expertise und Projektstatus geben. Sie trennen generischen AI-Content von Content der nach einer echten Person klingt. Ein Wochenende Aufwand.

Traditionelles SEO: wöchentliche manuelle Zyklen aus Datenexport, Analyse und CMS-Updates. Agentic SEO: tägliche 10-Minuten-Reviews. Der Agent macht Datenanalyse, Writing, Optimierung und Publishing autonom.

Ja. Jedes CMS mit API-Zugang funktioniert—WordPress REST API, Supabase, Webflow, PlanetScale. Voraussetzung ist programmatischer Zugang damit der Agent Content lesen und aktualisieren kann.

Du brauchst Expertise, kein manuelles Schreiben. Der Agent schreibt in deiner Stimme via Knowledge Files, aber die Insights müssen deine sein. Review jeden Output—der Agent macht 90%, du die 10% für Qualität.

Lass uns
vernetzen.

Ich bin immer offen für spannende Diskussionen über Frontend-Architektur, Performance und moderne Web-Stacks.

Schreib mir
Schreib mir