Alle wollen die Agentic SEO Ergebnisse. Niemand fragt nach der täglichen Routine die sie produziert.
Ich erreiche 200 Klicks/Tag auf einem Blog der vor drei Monaten 5 Impressionen/Woche hatte. Nicht durch einen viralen Artikel—durch einen wiederholbaren Claude Code SEO Workflow den ich jeden Morgen in 10 Minuten durchlaufe. Hier ist die exakte Routine, Schritt für Schritt.
Der Stack (Kurze Zusammenfassung)
Falls du meinen Agentic SEO Stack Breakdown gelesen hast, kennst du die Komponenten. Kurzer Recap:
- Claude Code — der AI Agent der in deinem Terminal läuft
- Supabase — datenbankbasiertes CMS mit REST API Zugang
- Google Search Console — Performance-Daten pro Seite und Query
- Knowledge Files — CLAUDE.md, Datenbankschema, Ton-Regeln, interne Links
Der Stack ändert sich nicht. Was zählt ist wie du ihn täglich nutzt. Darum geht es in diesem Artikel.
Die tägliche Routine: 10 Minuten
Minute 1-3: GSC Health Check
Ich öffne Claude Code und lasse es meine Google Search Console Daten ziehen. Nicht alle—ich fokussiere auf drei Dinge:
Neue Opportunities: Queries wo ich zum ersten Mal in den letzten 24-48 Stunden aufgetaucht bin. Google testet meinen Content für neue Keywords. Wenn eine neue Query 50+ Impressionen zeigt, lohnt es sich hinzuschauen.
Bleeding Pages: Seiten wo Impressionen hoch sind aber Klicks runter gegenüber letzter Woche. Das ist ein CTR-Problem—meistens ein Meta-Titel oder eine Description die nicht zum Search Intent passt.
Position Movers: Seiten die von Position 8-15 auf Position 4-7 gerückt sind. Das sind Striking Distance Seiten. Eine kleine Optimierung kann sie auf Seite 1 pushen.
Der Agent liest die Daten und flaggt was relevant ist. Ich exportiere keine Spreadsheets. Ich öffne keine Tabs. Ein Prompt, ein Report.
Minute 3-5: Kaputtes fixen
Wenn der Agent eine Bleeding Page geflaggt hat, fixe ich sie direkt. Der Agent hat bereits den Kontext—er kennt den Seiteninhalt, die Search Queries und die Performance-Daten. Ich sage ihm er soll:
- Den Meta-Titel umschreiben um zur dominanten Search Query zu passen
- Die Meta Description anpassen um zum Search Intent zu matchen
- Die Änderungen direkt in Supabase pushen
Das dauert 60 Sekunden pro Seite. Der Agent liest den aktuellen Titel, prüft welche Queries die Seite triggern, und schreibt um. Dann pushed er via Supabase API. Kein CMS-Login, kein Durchklicken durch Admin-Panels.
Minute 5-8: Content Gap Check
Ich frage den Agent meine publizierten Artikel mit den GSC-Queries abzugleichen. Konkret: gibt es Queries mit 500+ Impressionen wo ich keine dedizierte Seite habe?
Falls ja, erstellt der Agent ein Content Brief: Target Keyword, Search Intent, vorgeschlagene Struktur, interne Links zu bestehendem Content. Ich reviewe das Brief und gebe es entweder zum Schreiben frei oder parke es für später.
Hier zahlen sich die Knowledge Files aus. Der Agent kennt mein Datenbankschema, meine bestehenden Artikel, meinen Ton—das Content Brief ist ready to execute, kein generischer Vorschlag.
Minute 8-10: Schreiben oder Optimieren
Zwei Optionen abhängig von den Daten:
Option A: Schnelle Optimierung. Der Agent hat eine Seite identifiziert die eine bessere FAQ Section, ein aktualisiertes Intro oder verbessertes Internal Linking braucht. Er liest den aktuellen Content aus Supabase, macht die Änderungen, pushed das Update. Beide EN und DE Versionen. Fertig.
Option B: Neuer Content. Wenn es eine Content Gap gibt die es wert ist heute gefüllt zu werden, beginnt der Agent zu draftn. Er folgt meiner exakten Struktur—Hook, Substanz, Verdict, FAQ—weil die Knowledge Files das Format definieren. Ich reviewe den Draft, justiere den Take falls nötig, und der Agent publiziert als Draft.
Nicht jeder Tag hat einen neuen Artikel. Manche Tage sind pure Optimierung. Die Daten entscheiden, nicht ein Content-Kalender.
Der wöchentliche Deep Dive
Einmal pro Woche verbringe ich 30 Minuten statt 10. Die Extra-Zeit geht in:
Internal Linking Audit: Der Agent prüft jeden publizierten Artikel und identifiziert Seiten die aufeinander verlinken sollten aber es nicht tun. Er fügt die Links hinzu. Das ist die am meisten unterschätzte SEO-Taktik—interne Links compoundn schneller als Backlinks.
Content Refresh: Artikel die älter als 4 Wochen sind bekommen einen Freshness Check. Sind die Fakten noch aktuell? Hat sich der Search Intent verschoben? Der Agent liest den Artikel, prüft GSC-Daten für die Seite und flaggt alles was ein Update braucht.
Strategische Planung: Ich frage den Agent meine Topical Clusters zu analysieren. Wo bin ich stark? Wo sind Lücken? Das speist die Content Pipeline für die nächste Woche.
Wöchentliche Insights zu AI-Architektur. Kein Spam.
Für das monatliche umfassende Audit nutze ich Agent Teams—mehrere AI-Spezialisten parallel. Aber für wöchentliche Arbeit reicht eine einzelne Claude Code Session.
Die Prompts die funktionieren
Ich nutze keine aufwändigen Prompts. Die Knowledge Files machen die schwere Arbeit. Hier sind die drei Prompts die ich am meisten nutze:
Morgen-Check:
Prüfe meine GSC-Daten der letzten 48 Stunden. Zeige mir: neue Queries
mit 50+ Impressionen, Seiten wo CTR gesunken ist vs letzte Woche, und
Seiten die auf Position 4-7 gerückt sind. Für jede empfiehl die
spezifische Aktion.
Quick Fix:
Seite [slug] hat [X] Impressionen für "[query]" aber nur [Y] Klicks.
Lies den aktuellen Content und die Meta-Daten. Schreibe Meta-Titel und
Description um damit sie zum Search Intent für diese Query passen.
Push zu Supabase.
Content Gap:
Gleiche meine publizierten Artikel in Supabase mit GSC-Queries mit 500+
Impressionen ab. Welche Queries haben keine dedizierte Seite? Für jede
Lücke gib mir: Target Keyword, Search Intent, vorgeschlagene Struktur,
und 2-3 interne Links zu bestehendem Content.
Das ist es. Drei Prompts decken 90% der täglichen SEO-Arbeit ab. Der Agent hat den Kontext um jeden auszuführen weil die Knowledge Files das Datenbankschema, die Schreibregeln und den Projektstatus definieren.
Warum das funktioniert: Die Compound-Mathematik
Tägliche Optimierung erzeugt einen Compounding-Effekt den wöchentliche oder monatliche Zyklen nicht matchen können.
Woche 1: Du fixst 5 Meta-Titel. Zwei Seiten bewegen sich von Position 8 auf Position 4. Klicks auf diesen Seiten verdreifachen sich.
Woche 2: Die gestiegenen Klicks verbessern deine Domain-Signale. Andere Seiten beginnen besser zu ranken. Du fixst 5 weitere Titel und erstellst 2 neue Seiten für Content Gaps.
Woche 3: Die neuen Seiten werden indexiert. Dein Internal Linking pushed Authority zu ihnen. GSC zeigt neue Query-Cluster die du nicht getargeted hattest.
Woche 4: Der Compounding-Effekt setzt ein. Seiten die du in Woche 1 gefixt hast klettern jetzt auf Position 1-3. Neue Seiten aus Woche 2 betreten die Top 10. Du hast mehr Daten, mehr Opportunities, mehr Hebel.
Manuelles SEO kann mit diesem Zyklus nicht mithalten weil jede Iteration Stunden an Spreadsheet-Analyse braucht. Mit Claude Code dauert jede Iteration 10 Minuten. Das ist der echte Vorteil—nicht dass die AI besseren Content schreibt, sondern dass der Optimierungszyklus täglich statt monatlich läuft.
Was ich nicht mache
Genauso wichtig wie der Workflow ist was ich auslasse:
Ich nutze keine Keyword Research Tools. GSC sagt mir wofür Google mich bereits anzeigt. Das ist wertvoller als jede Volumen-Schätzung eines Keyword Tools. Ich optimiere für echte Queries, nicht für projizierte.
Ich folge keinem Content-Kalender. Die Daten entscheiden was geschrieben wird. Wenn GSC heute eine Content Gap zeigt, fülle ich sie heute. Wenn es keine Gap gibt, optimiere ich bestehenden Content. Kalender sind für Marketer. Daten sind für Engineers.
Ich batch-optimiere nicht. Manche Leute sammeln SEO-Aufgaben und machen sie alle am Freitag. Das ist verschwendete Compounding-Zeit. Jeder Tag den du einen Meta-Titel Fix verzögerst ist ein Tag verlorener Klicks.
Ich checke Rankings nicht manuell. Der Agent liest GSC. Ich öffne GSC nie direkt. Der Agent filtert Signal von Noise und zeigt mir nur was Aktion braucht.
Die Zahlen
Der Workflow produziert konsistentes, vorhersagbares Wachstum:
| Woche | Tägliche Klicks | Tägliche Impressionen | Aktionen |
|---|---|---|---|
| 1 | 30 | 2.000 | 15 Fixes, 2 neue Seiten |
| 2 | 80 | 5.000 | 12 Fixes, 3 neue Seiten |
| 3 | 140 | 9.000 | 10 Fixes, 2 neue Seiten |
| 4 | 200 | 14.000 | 8 Fixes, 3 neue Seiten |
Beachte das Muster: Fixes nehmen ab weil es weniger zu fixen gibt. Neue Seiten füllen Gaps die die Daten aufdecken. Klicks compoundn weil jede Optimierung auf den vorherigen aufbaut.
Das Verdict
Claude Code SEO heißt nicht eine AI Artikel für dich schreiben lassen. Es heißt einen datengetriebenen Optimierungs-Loop jeden einzelnen Tag 10 Minuten lang laufen lassen.
Der Stack ist simpel: Claude Code + Supabase + GSC + Knowledge Files. Der Workflow ist simpler: Daten checken, Kaputtes fixen, Content Gaps füllen, wiederholen. Die Ergebnisse compoundn weil tägliche Iteration wöchentliche Zyklen jedes Mal schlägt.
Fang mit dem Morgen GSC-Check an. Diese eine Gewohnheit—10 Minuten, jeden Tag—ist mehr wert als jeder SEO-Kurs oder Tool-Abo. Die Daten sagen dir exakt was zu tun ist. Der Agent führt es in Sekunden aus. Du reviewst und genehmigst.
Das ist der gesamte Workflow. Kein Geheimnis. Nur Engineering angewandt auf Content.