Marco Patzelt
Back to Overview
9. Februar 2026

Claude Code SEO: Mein täglicher Workflow für 200 Klicks/Tag

Claude Code SEO Workflow Schritt für Schritt—GSC-Analyse, Content Writing, Meta-Optimierung und Publishing in 10 Min/Tag. 200 Klicks/Tag mit dieser Routine.

Alle wollen die Agentic SEO Ergebnisse. Niemand fragt nach der täglichen Routine die sie produziert.

Ich erreiche 200 Klicks/Tag auf einem Blog der vor drei Monaten 5 Impressionen/Woche hatte. Nicht durch einen viralen Artikel—durch einen wiederholbaren Claude Code SEO Workflow den ich jeden Morgen in 10 Minuten durchlaufe. Hier ist die exakte Routine, Schritt für Schritt.

Der Stack (Kurze Zusammenfassung)

Falls du meinen Agentic SEO Stack Breakdown gelesen hast, kennst du die Komponenten. Kurzer Recap:

  • Claude Code — der AI Agent der in deinem Terminal läuft
  • Supabase — datenbankbasiertes CMS mit REST API Zugang
  • Google Search Console — Performance-Daten pro Seite und Query
  • Knowledge Files — CLAUDE.md, Datenbankschema, Ton-Regeln, interne Links

Der Stack ändert sich nicht. Was zählt ist wie du ihn täglich nutzt. Darum geht es in diesem Artikel.

Die tägliche Routine: 10 Minuten

Minute 1-3: GSC Health Check

Ich öffne Claude Code und lasse es meine Google Search Console Daten ziehen. Nicht alle—ich fokussiere auf drei Dinge:

Neue Opportunities: Queries wo ich zum ersten Mal in den letzten 24-48 Stunden aufgetaucht bin. Google testet meinen Content für neue Keywords. Wenn eine neue Query 50+ Impressionen zeigt, lohnt es sich hinzuschauen.

Bleeding Pages: Seiten wo Impressionen hoch sind aber Klicks runter gegenüber letzter Woche. Das ist ein CTR-Problem—meistens ein Meta-Titel oder eine Description die nicht zum Search Intent passt.

Position Movers: Seiten die von Position 8-15 auf Position 4-7 gerückt sind. Das sind Striking Distance Seiten. Eine kleine Optimierung kann sie auf Seite 1 pushen.

Der Agent liest die Daten und flaggt was relevant ist. Ich exportiere keine Spreadsheets. Ich öffne keine Tabs. Ein Prompt, ein Report.

Minute 3-5: Kaputtes fixen

Wenn der Agent eine Bleeding Page geflaggt hat, fixe ich sie direkt. Der Agent hat bereits den Kontext—er kennt den Seiteninhalt, die Search Queries und die Performance-Daten. Ich sage ihm er soll:

  • Den Meta-Titel umschreiben um zur dominanten Search Query zu passen
  • Die Meta Description anpassen um zum Search Intent zu matchen
  • Die Änderungen direkt in Supabase pushen

Das dauert 60 Sekunden pro Seite. Der Agent liest den aktuellen Titel, prüft welche Queries die Seite triggern, und schreibt um. Dann pushed er via Supabase API. Kein CMS-Login, kein Durchklicken durch Admin-Panels.

Minute 5-8: Content Gap Check

Ich frage den Agent meine publizierten Artikel mit den GSC-Queries abzugleichen. Konkret: gibt es Queries mit 500+ Impressionen wo ich keine dedizierte Seite habe?

Falls ja, erstellt der Agent ein Content Brief: Target Keyword, Search Intent, vorgeschlagene Struktur, interne Links zu bestehendem Content. Ich reviewe das Brief und gebe es entweder zum Schreiben frei oder parke es für später.

Hier zahlen sich die Knowledge Files aus. Der Agent kennt mein Datenbankschema, meine bestehenden Artikel, meinen Ton—das Content Brief ist ready to execute, kein generischer Vorschlag.

Minute 8-10: Schreiben oder Optimieren

Zwei Optionen abhängig von den Daten:

Option A: Schnelle Optimierung. Der Agent hat eine Seite identifiziert die eine bessere FAQ Section, ein aktualisiertes Intro oder verbessertes Internal Linking braucht. Er liest den aktuellen Content aus Supabase, macht die Änderungen, pushed das Update. Beide EN und DE Versionen. Fertig.

Option B: Neuer Content. Wenn es eine Content Gap gibt die es wert ist heute gefüllt zu werden, beginnt der Agent zu draftn. Er folgt meiner exakten Struktur—Hook, Substanz, Verdict, FAQ—weil die Knowledge Files das Format definieren. Ich reviewe den Draft, justiere den Take falls nötig, und der Agent publiziert als Draft.

Nicht jeder Tag hat einen neuen Artikel. Manche Tage sind pure Optimierung. Die Daten entscheiden, nicht ein Content-Kalender.

Der wöchentliche Deep Dive

Einmal pro Woche verbringe ich 30 Minuten statt 10. Die Extra-Zeit geht in:

Internal Linking Audit: Der Agent prüft jeden publizierten Artikel und identifiziert Seiten die aufeinander verlinken sollten aber es nicht tun. Er fügt die Links hinzu. Das ist die am meisten unterschätzte SEO-Taktik—interne Links compoundn schneller als Backlinks.

Content Refresh: Artikel die älter als 4 Wochen sind bekommen einen Freshness Check. Sind die Fakten noch aktuell? Hat sich der Search Intent verschoben? Der Agent liest den Artikel, prüft GSC-Daten für die Seite und flaggt alles was ein Update braucht.

Strategische Planung: Ich frage den Agent meine Topical Clusters zu analysieren. Wo bin ich stark? Wo sind Lücken? Das speist die Content Pipeline für die nächste Woche.

Newsletter

Wöchentliche Insights zu AI-Architektur. Kein Spam.

Für das monatliche umfassende Audit nutze ich Agent Teams—mehrere AI-Spezialisten parallel. Aber für wöchentliche Arbeit reicht eine einzelne Claude Code Session.

Die Prompts die funktionieren

Ich nutze keine aufwändigen Prompts. Die Knowledge Files machen die schwere Arbeit. Hier sind die drei Prompts die ich am meisten nutze:

Morgen-Check:

Prüfe meine GSC-Daten der letzten 48 Stunden. Zeige mir: neue Queries 
mit 50+ Impressionen, Seiten wo CTR gesunken ist vs letzte Woche, und 
Seiten die auf Position 4-7 gerückt sind. Für jede empfiehl die 
spezifische Aktion.

Quick Fix:

Seite [slug] hat [X] Impressionen für "[query]" aber nur [Y] Klicks. 
Lies den aktuellen Content und die Meta-Daten. Schreibe Meta-Titel und 
Description um damit sie zum Search Intent für diese Query passen. 
Push zu Supabase.

Content Gap:

Gleiche meine publizierten Artikel in Supabase mit GSC-Queries mit 500+ 
Impressionen ab. Welche Queries haben keine dedizierte Seite? Für jede 
Lücke gib mir: Target Keyword, Search Intent, vorgeschlagene Struktur, 
und 2-3 interne Links zu bestehendem Content.

Das ist es. Drei Prompts decken 90% der täglichen SEO-Arbeit ab. Der Agent hat den Kontext um jeden auszuführen weil die Knowledge Files das Datenbankschema, die Schreibregeln und den Projektstatus definieren.

Warum das funktioniert: Die Compound-Mathematik

Tägliche Optimierung erzeugt einen Compounding-Effekt den wöchentliche oder monatliche Zyklen nicht matchen können.

Woche 1: Du fixst 5 Meta-Titel. Zwei Seiten bewegen sich von Position 8 auf Position 4. Klicks auf diesen Seiten verdreifachen sich.

Woche 2: Die gestiegenen Klicks verbessern deine Domain-Signale. Andere Seiten beginnen besser zu ranken. Du fixst 5 weitere Titel und erstellst 2 neue Seiten für Content Gaps.

Woche 3: Die neuen Seiten werden indexiert. Dein Internal Linking pushed Authority zu ihnen. GSC zeigt neue Query-Cluster die du nicht getargeted hattest.

Woche 4: Der Compounding-Effekt setzt ein. Seiten die du in Woche 1 gefixt hast klettern jetzt auf Position 1-3. Neue Seiten aus Woche 2 betreten die Top 10. Du hast mehr Daten, mehr Opportunities, mehr Hebel.

Manuelles SEO kann mit diesem Zyklus nicht mithalten weil jede Iteration Stunden an Spreadsheet-Analyse braucht. Mit Claude Code dauert jede Iteration 10 Minuten. Das ist der echte Vorteil—nicht dass die AI besseren Content schreibt, sondern dass der Optimierungszyklus täglich statt monatlich läuft.

Was ich nicht mache

Genauso wichtig wie der Workflow ist was ich auslasse:

Ich nutze keine Keyword Research Tools. GSC sagt mir wofür Google mich bereits anzeigt. Das ist wertvoller als jede Volumen-Schätzung eines Keyword Tools. Ich optimiere für echte Queries, nicht für projizierte.

Ich folge keinem Content-Kalender. Die Daten entscheiden was geschrieben wird. Wenn GSC heute eine Content Gap zeigt, fülle ich sie heute. Wenn es keine Gap gibt, optimiere ich bestehenden Content. Kalender sind für Marketer. Daten sind für Engineers.

Ich batch-optimiere nicht. Manche Leute sammeln SEO-Aufgaben und machen sie alle am Freitag. Das ist verschwendete Compounding-Zeit. Jeder Tag den du einen Meta-Titel Fix verzögerst ist ein Tag verlorener Klicks.

Ich checke Rankings nicht manuell. Der Agent liest GSC. Ich öffne GSC nie direkt. Der Agent filtert Signal von Noise und zeigt mir nur was Aktion braucht.

Die Zahlen

Der Workflow produziert konsistentes, vorhersagbares Wachstum:

WocheTägliche KlicksTägliche ImpressionenAktionen
1302.00015 Fixes, 2 neue Seiten
2805.00012 Fixes, 3 neue Seiten
31409.00010 Fixes, 2 neue Seiten
420014.0008 Fixes, 3 neue Seiten

Beachte das Muster: Fixes nehmen ab weil es weniger zu fixen gibt. Neue Seiten füllen Gaps die die Daten aufdecken. Klicks compoundn weil jede Optimierung auf den vorherigen aufbaut.

Das Verdict

Claude Code SEO heißt nicht eine AI Artikel für dich schreiben lassen. Es heißt einen datengetriebenen Optimierungs-Loop jeden einzelnen Tag 10 Minuten lang laufen lassen.

Der Stack ist simpel: Claude Code + Supabase + GSC + Knowledge Files. Der Workflow ist simpler: Daten checken, Kaputtes fixen, Content Gaps füllen, wiederholen. Die Ergebnisse compoundn weil tägliche Iteration wöchentliche Zyklen jedes Mal schlägt.

Fang mit dem Morgen GSC-Check an. Diese eine Gewohnheit—10 Minuten, jeden Tag—ist mehr wert als jeder SEO-Kurs oder Tool-Abo. Die Daten sagen dir exakt was zu tun ist. Der Agent führt es in Sekunden aus. Du reviewst und genehmigst.

Das ist der gesamte Workflow. Kein Geheimnis. Nur Engineering angewandt auf Content.

Newsletter

Wöchentliche Insights zu AI-Architektur

Kein Spam. Jederzeit abbestellbar.

Häufig gestellte Fragen

Eine tägliche 10-Minuten-Routine: GSC-Daten auf neue Opportunities und Probleme prüfen, Bleeding Pages fixen (niedriger CTR), Content Gaps identifizieren, Content schreiben oder optimieren, Änderungen in die Datenbank pushen.

10 Minuten für die tägliche Routine. 30 Minuten einmal pro Woche für den Deep Dive (Internal Linking Audit, Content Refresh, strategische Planung). Monatliche umfassende Audits mit Agent Teams dauern länger, sind aber optional.

Drei Prompts decken 90% der täglichen Arbeit: ein Morgen-GSC-Check für neue Queries und CTR-Drops, ein Quick Fix Prompt für Meta-Titel, und ein Content Gap Prompt der Artikel gegen GSC-Queries mit 500+ Impressionen abgleicht.

Nein. Google Search Console zeigt dir wofür Google dich bereits rankt. Das ist wertvoller als Keyword-Tool Volumenschätzungen. Optimiere für echte Queries mit echten Impressionen statt für projiziertes Suchvolumen.

Woche 1: 30 tägliche Klicks. Woche 2: 80. Woche 3: 140. Woche 4: 200. Tägliche Optimierung compoundt weil jeder Fix Domain-Signale verbessert die allen Seiten zugutekommen. Monatliche SEO-Zyklen können nicht mithalten.

Täglich: GSC Health Check, Bleeding Pages fixen, dringende Content Gaps füllen (10 Min). Wöchentlich: Internal Linking Audit, Content Refresh für ältere Artikel, strategische Cluster-Planung (30 Min). Monatlich: umfassendes Agent Teams Audit.

Lass uns
vernetzen.

Ich bin immer offen für spannende Diskussionen über Frontend-Architektur, Performance und moderne Web-Stacks.

Schreib mir
Schreib mir