Marco Patzelt
Back to Overview
12. Februar 2026

Claude Code Automation: Wie ich 45 Blog Posts ohne Autoren betreibe

Claude Code Automation betreibt meinen gesamten Blog mit 45 Posts—Schreiben, SEO, Publishing. 68k Impressionen, null Autoren. Voller Stack, echte Zahlen.

4% aller GitHub Commits werden jetzt von Claude Code geschrieben. SemiAnalysis prognostiziert 20%+ bis Ende 2026. Die meisten nutzen es um Software zu schreiben. Ich nutze es um eine komplette Content-Operation zu betreiben.

45 Blog Posts. 68.000 Impressionen in 9 Tagen. 200 Klicks pro Tag. Null Autoren, null Editoren, null Content Manager. Ein Engineer mit einem Claude Code Terminal und einer Supabase-Datenbank.

Das ist kein Setup Guide. Jedes Claude Code Tutorial zeigt dir wie du es installierst und mit einer API verbindest. Das hier ist was passiert wenn du es tatsächlich drei Monate in Produktion betreibst.

Was "Claude Code Automation" wirklich bedeutet

Die meisten "Claude Code Automation"-Inhalte beschreiben das Tool. Installieren. Mit GitHub verbinden. In CI/CD Pipelines nutzen. Das ist okay für Entwickler die Code-Workflows automatisieren.

Ich automatisiere keinen Code. Ich automatisiere ein komplettes Content Business.

Die Pipeline handhabt: Topic Discovery aus echten Suchdaten, Artikel-Drafts in meiner Stimme, SEO-Optimierung gegen live Google Search Console Metriken, Datenbank-Publishing an Supabase, und laufendes Performance-Monitoring. Jeder Schritt läuft über Claude Code verbunden mit externen Services via API.

Der Unterschied zwischen ChatGPT fragen "schreib einen Blogpost über X" und was dieses System tut ist der Unterschied zwischen jemanden nach dem Weg fragen und ihm die Autoschlüssel geben. ChatGPT gibt dir Text. Diese Pipeline liest deine Suchperformance, identifiziert was geschrieben werden muss, draftet es in deiner dokumentierten Stimme, optimiert es gegen echte Daten und pushed es in deine Datenbank. Du reviewst 10 Minuten. Das war's.

Der Stack

Vier Komponenten. Setup-Kosten: ein Nachmittag für die technische Verkabelung, ein Wochenende für die Knowledge Files die es tatsächlich funktionieren lassen.

Claude Code ist das Gehirn. Es läuft in deinem Terminal mit vollem Systemzugriff—liest Projektdateien, führt Befehle aus, verbindet sich mit externen Services über Umgebungsvariablen. Das ist kein Chatbot. Das ist ein Agent mit Tools.

Supabase ist das CMS. Alle Blog-Inhalte leben in einer Postgres-Datenbank. Artikel, Metadaten, Titel, Beschreibungen, interne Links—strukturierte Daten die Claude Code via Supabase REST API abfragt und aktualisiert. Eine Datenbank hat einen ganzen CMS-Workflow ersetzt. Ich habe die komplette Claude Code Architektur die einen ganzen Agentur-Workflow ersetzt hat in einem früheren Post beschrieben.

Google Search Console liefert die Daten. Claude Code liest Impressionen, Klicks, CTR, durchschnittliche Position—pro Seite, pro Query. Hier wird "Automation" zu "Agentic." Das System rät nicht was optimiert werden soll. Es schaut sich die tatsächliche Suchperformance an.

Make.com handhabt die Orchestrierungsschicht. Geplante Trigger, Webhook-Verbindungen, Notification-Flows. Der Kleber zwischen Komponenten die nicht nativ miteinander kommunizieren.

Die Knowledge Files: 80% der Arbeit

Jeder überspringt diesen Teil. Es ist der einzige Teil der zählt.

Claude Code ist mächtig. Ohne Kontext produziert es generischen Content der sich nicht von jedem anderen AI-Blog unterscheidet. Die Knowledge Files sind was es von einem Sprachmodell in mein Content-System verwandelt.

Ich pflege vier Dateien die Claude Code vor jeder Aktion liest:

database_schema.md — Der Agent weiß genau wie meine Datenbank aussieht. Tabellennamen, Spaltentypen, Beziehungen. Er pushed Content, editiert Metadaten, managed interne Links. Kein Raten, keine falschen Feldnamen.

marco_context.md — Alles über mich. Mein Engineering-Hintergrund, wie ich über Probleme nachdenke, wofür der Blog ist. Das ist keine Eitelkeit—das ist Kalibrierung. Der Agent schreibt anders wenn er weiß dass der Autor Produktions-Middleware gebaut hat, nicht nur über AI auf Twitter gelesen hat.

tone.md — Wie geschrieben wird. Kurze Absätze. Zahlen statt Adjektive. Keine Füllphrasen. Direkte Ansprache. Spezifische Regeln die der Agent jedes Mal befolgt. Dinge wie: Sag niemals "in der sich schnell entwickelnden Landschaft von heute." Gib immer eine konkrete Zahl statt "schnell" oder "teuer."

internal_links.md — Jeder veröffentlichte Artikel mit seiner URL. Der Agent verlinkt neuen Content zu bestehenden Posts ohne dass ich mich erinnern muss was ich geschrieben habe.

Der Output-Unterschied ist Tag und Nacht. Ohne Knowledge Files schreibt Claude Code wie ein hilfreicher Assistent. Mit ihnen schreibt es wie eine spezifische Person mit spezifischer Expertise. Google belohnt das. Leser vertrauen dem.

Gute Knowledge Files zu schreiben hat mich ein Wochenende gekostet. Das technische Setup einen Nachmittag. Wenn du das replizieren willst und die Knowledge Files überspringst, bekommst du eine schnelle Content-Maschine die vergesslichen Content produziert. Die Files sind das Produkt.

Eine echte Session: So funktioniert es

So sieht eine typische 10-Minuten-Morgen-Session aus.

Schritt 1: Daten ziehen. Ich öffne Claude Code und sage ihm er soll meine Suchperformance checken. Es zieht GSC-Daten, gleicht sie mit meinem bestehenden Content ab und liefert einen spezifischen Report:

Seite: /openclaw-mac-mini — 5.200 Impressionen, 23 Klicks (0,4% CTR). Intent Mismatch. User suchen "Setup Guide" aber die Seite liest sich wie News. Empfehlung: Intro umstrukturieren, Step-by-Step-Sektion hinzufügen.

Seite: /claude-sonnet-5-leak — 3.800 Impressionen, Position 8,2. Meta-Titel enthält das primäre Keyword nicht in den ersten 30 Zeichen. Empfehlung: Titel umschreiben, Keyword voranstellen.

Query: "claude code automation" — 1.200 Impressionen, keine dedizierte Seite. Content Gap. High-Intent Keyword ohne Konkurrenz von uns. Empfehlung: neuer Artikel der diese Query zielt.

Kein vages "du solltest deine Titel optimieren." Eine spezifische Liste mit Zahlen und Gründen.

Schritt 2: Agent handelt. Für bestehenden Content reportet der Agent nicht nur—er fixt. Schreibt Meta-Titel um, passt Beschreibungen an, prüft ob der Suchintent zur Content-Struktur passt. Dann pushed er Änderungen direkt an Supabase.

Für Content Gaps draftet er neue Artikel mit den Knowledge Files für Voice-Kalibrierung. Der Draft folgt meiner exakten Struktur: Hook, Versprechen, Liefern, Verdict, FAQ.

Schritt 3: Review. Ich reviewe was der Agent geändert hat. 10 Minuten statt 3 Stunden. Der Agent hat Datenanalyse, Schreiben, Optimierung und Datenbank-Updates erledigt. Ich prüfe ob der Take stimmt und der Ton meiner ist.

Das ist eine Session. Ich mache das täglich. Der Zinseszins-Effekt ist der ganze Punkt.

Newsletter

Wöchentliche Insights zu AI-Architektur. Kein Spam.

Die Zahlen

Drei Monate Daten. Gestartet von effektiv null.

MetrikVorher (Nov 2025)Jetzt (12. Feb 2026)
Wöchentliche Impressionen~568.000+
Tägliche Klicks0~200
Veröffentlichte Posts045
Angestellte Autoren00
Täglicher ZeitaufwandN/A~10 Minuten
Content-Budget$0$90/Monat (Claude Max)

Der Hockey Stick startete als ich von manueller Content-Erstellung auf diesen agentischen Workflow umgestiegen bin. Nicht weil AI schneller schreibt—weil das System auf Daten statt Intuition operiert.

Jeder Artikel zielt auf Queries bei denen GSC-Daten echte Nachfrage zeigen. Jeder Meta-Titel ist gegen tatsächliche Impression-Daten optimiert. Jeder Content Gap wird aus Search Console Zahlen identifiziert, nicht aus Keyword-Tool-Schätzungen.

Zum Kontext: Mein Blog generiert jetzt mehr wöchentliche Impressionen als die Marketing-Agentur für die ich arbeite. Deren Team hat Texter, SEO-Spezialisten und einen Content-Kalender. Ich habe ein Terminal und eine Datenbank.

Was das wirklich kostet

Ich werde spezifisch weil "AI ist billig" vage ist.

Monatliche Kosten:

  • Claude Max Subscription: $90
  • Supabase: Free Tier (mehr als ausreichend für 45 Posts)
  • Make.com: Free Tier für Basic-Automation
  • Domain + Hosting: ~$15
  • Google Search Console: Kostenlos

Gesamt: ~$105/Monat.

Die echten Kosten sind die Vorab-Investition: ein Wochenende Knowledge Files schreiben, ein Nachmittag die technische Pipeline aufsetzen, und drei Monate tägliche 10-Minuten-Sessions um die Content-Bibliothek aufzubauen.

Vergleich das mit einem Content Writer ($500-2.000/Monat für einen Artikel pro Woche), einem SEO-Spezialisten ($1.000-3.000/Monat) und einem Content Manager ($2.000-4.000/Monat). Der traditionelle Stack kostet $3.500-9.000/Monat für was dieses System in 10 Minuten täglich erledigt.

Die Ökonomie ist nicht mal annähernd vergleichbar.

Was kaputt geht

Das ist keine Magie. Vier Dinge die regelmäßig schiefgehen.

Tone Drift. Nach langen Sessions fängt der Agent an generisch zu klingen. Die Knowledge Files helfen aber eliminieren das nicht komplett. Lösung: kürzere Sessions, häufige Resets, und immer die ersten zwei Sätze jedes Drafts reviewen. Wenn der Hook klingt wie "In diesem Artikel werden wir untersuchen..."—sofort ablehnen.

Halluzinierte Daten. Der Agent erfindet manchmal Statistiken oder ordnet Quellen falsch zu. Jede Zahl in jedem Artikel wird manuell verifiziert. Das ist nicht verhandelbar. Eine falsche Zahl und deine Glaubwürdigkeit ist weg.

Über-Optimierung. Der Agent kann Content produzieren der technisch perfekt für SEO ist aber liest als hätte ein keyword-stuffender Roboter ihn geschrieben. Die Knowledge Files helfen, aber du musst darauf achten. Wenn ein Absatz das primäre Keyword vier Mal erwähnt, braucht er ein menschliches Edit.

Knowledge File Veralterung. Wenn der Blog wächst und der Fokus sich verschiebt, brauchen die Kontext-Dateien Updates. Veralteter Kontext produziert generischen Output. Ich aktualisiere meine etwa alle zwei Wochen.

Die Zeitersparnis kommt daher dass der Agent 90% der Arbeit macht, nicht 100%. Die letzten 10% menschliches Review trennen das von AI Content Farms. Überspring es und du rankst anfangs, dann tankst du wenn Google nachzieht.

Warum das besser funktioniert als traditionelle Content Workflows

Traditioneller Content-Workflow: GSC öffnen, Daten exportieren, Spreadsheet öffnen, analysieren, CMS öffnen, Änderungen machen, für jede Seite wiederholen. Dauert Stunden. Du machst es einmal die Woche wenn du diszipliniert bist.

Agentischer Workflow: Dem Agent sagen er soll analysieren und optimieren. Er macht alles in einer Session. Du machst es täglich weil es 10 Minuten kostet. Ich beschreibe meinen täglichen SEO-Workflow in einem separaten Artikel.

Der Zinseszins-Effekt ist brutal. Tägliche datengetriebene Optimierung bedeutet jeder Artikel wird jeden Tag besser. Traditionelles SEO operiert in wöchentlichen oder monatlichen Zyklen. Bis der SEO-Berater deines Wettbewerbers das Spreadsheet reviewt hat, hat mein Agent den Content Gap bereits identifiziert, den Artikel geschrieben und veröffentlicht.

Geschwindigkeit ist nicht der einzige Vorteil. Der Agent operiert aus einer rein datengetriebenen Perspektive. Keine Bauchgefühle. Kein "Ich glaube dieser Titel klingt besser." Impressionen sind runter? Hier ist warum, basierend auf den Daten. CTR ist niedrig? Hier ist der Intent Mismatch, bewiesen durch die Suchanfragen.

Es ist der gleiche Engineering-Ansatz für Unsicherheit der in System-Architektur funktioniert. Daten rein, Logik angewandt, Daten raus.

Das große Bild: Warum Claude Code für Content

SemiAnalysis hat diese Woche berichtet dass 4% der öffentlichen GitHub Commits jetzt von Claude Code geschrieben werden. 135.000 Commits pro Tag. Sie prognostizieren 20%+ bis Ende 2026.

Das meiste davon ist Software Engineering. Aber die zugrundeliegende Fähigkeit—ein Agent der Kontext liest, mehrstufige Aufgaben plant und sie autonom ausführt—gilt für jede Informationsarbeit.

Content-Operationen sind Informationsarbeit. Recherchieren, schreiben, optimieren, veröffentlichen, monitoren, iterieren. Jeder Schritt ist: Daten rein, Logik angewandt, Daten raus. Das gleiche Muster auf verschiedenen Ebenen wiederholt.

Ich nutze Claude Code nicht als Schreibassistenten. Ich nutze es als Betriebssystem für Content. Das Schreiben ist ein Schritt in einer Pipeline die Datenanalyse, Optimierung, Publishing und Monitoring umfasst. Der Agent produziert nicht nur Text—er betreibt das gesamte System.

Das ist der Shift den die meisten übersehen. Sie fragen "kann AI gute Artikel schreiben?" Falsche Frage. Die richtige Frage: "kann AI die gesamte Pipeline von Daten bis zum veröffentlichten, optimierten Content betreiben?" Die Antwort ist ja. Ich habe 45 Posts und 68.000 Impressionen als Beweis.

Das Verdict

Claude Code Automation geht nicht darum schneller zu schreiben. Es geht darum ein Content-System mit einer Frequenz und Konsistenz zu betreiben die Menschen manuell nicht schaffen.

$105/Monat. 10 Minuten täglich. 45 veröffentlichte Posts. 68.000 Impressionen in 9 Tagen.

Der traditionelle Content-Workflow—manuelle Recherche, manuelles Schreiben, manuelle Optimierung, wöchentliche Zyklen—ist tot für Solo-Operatoren. Nicht weil AI besseren Content schreibt. Weil ein AI-Agent der deine Suchdaten liest, in deiner Stimme schreibt und in deine Datenbank published Content Marketing von einem Teilzeitjob in ein 10-Minuten-Daily-Review verwandelt.

Fang mit den Knowledge Files an. Das ist der schwere Teil. Der Rest ist Klempnerarbeit.

Newsletter

Wöchentliche Insights zu AI-Architektur

Kein Spam. Jederzeit abbestellbar.

Häufig gestellte Fragen

Anthropics CLI-Agent nutzen um eine komplette Content-Pipeline zu betreiben—Topic Discovery aus GSC-Daten, Artikel-Drafts mit Knowledge Files für Voice-Kalibrierung, SEO-Optimierung und Datenbank-Publishing. Der Agent managed den gesamten Workflow.

Circa $105/Monat gesamt. Claude Max Subscription ($90), Supabase Free Tier, Make.com Free Tier, Domain + Hosting (~$15). Verglichen mit $3.500-9.000/Monat für ein traditionelles Content Team.

Es ersetzt die Schreib-Mechanik aber nicht die Expertise. 90% Automatisierung, 10% menschliches Review. Der Mensch liefert Domain-Wissen über Knowledge Files und prüft Output auf Genauigkeit und Ton.

Markdown-Dokumente die Claude Code vor der Content-Produktion liest. Datenbankschema, persönlicher Kontext, Schreibstil-Regeln, interne Links. Sie machen 80% des Systemwerts aus. Schreiben dauert ein Wochenende.

Über die GSC API mit einem Service Account. Der Agent liest Impressionen, Klicks, CTR und Position pro Seite und Query um Optimierungsmöglichkeiten und Content Gaps zu identifizieren.

Ja, mit guten Knowledge Files. 45 Posts mit 68.000+ Impressionen in 9 Tagen. Ohne Knowledge Files ist der Content generisch und rankt nicht. Die Files kalibrieren Voice, Ton und Expertise.

Vier Dinge: Tone Drift in langen Sessions, halluzinierte Statistiken, Über-Optimierung mit Keyword Stuffing, und veraltete Knowledge Files. Das 10% menschliche Review fängt alles ab.

Traditionell: Stunden pro Artikel, wöchentliche Optimierung. Claude Code: 10 Minuten täglich für die gesamte Pipeline. Tägliches Compounding schlägt monatliche Zyklen.

Lass uns
vernetzen.

Ich bin immer offen für spannende Diskussionen über Frontend-Architektur, Performance und moderne Web-Stacks.

Schreib mir
Schreib mir