Marco Patzelt
Back to Overview
9. Februar 2026

Was ist Agentic SEO? Der Dev Guide, nicht die $2k-Plattform

Was ist Agentic SEO? Kein Enterprise-Pitch—das echte Engineering Setup. Claude Code, Supabase, GSC. Voller Stack, echte Ergebnisse, null Plattformkosten.

Suche "Agentic SEO" und du findest zwei Dinge: Enterprise-Plattformen die $2.000/Monat kosten und Thought-Leadership Artikel die das Konzept erklären ohne eine einzige Implementierung zu zeigen. Hier ist die Developer-Version.

Die Enterprise-Definition vs. die echte

Jede SEO-Agentur und ihr Content-Team schreibt gerade über Agentic SEO. Deren Definition: "AI Agents die autonom SEO-Aufgaben managen." Dann pitchen sie dir ihre Plattform.

Hier ist was Agentic SEO wirklich ist wenn du das Marketing wegstrippst: ein AI Agent mit direktem Zugang zu deiner Datenbank, deinen Search Console Daten und deinem Content—der Performance-Daten lesen, Probleme identifizieren und sie fixen kann ohne dass du manuell ein CMS bedienst.

Das ist es. Kein Dashboard. Kein SaaS-Produkt. Kein Team von Prompt Engineers in einem Slack Channel. Ein AI Agent verbunden mit deiner Infrastruktur der auf deinen Daten operiert.

Der "agentic" Teil bedeutet der Agent handelt autonom. Du promptest ihn nicht für jede Aufgabe. Du sagst ihm "analysiere mein SEO und fixe was kaputt ist" und er liest GSC-Daten, identifiziert CTR-Probleme, schreibt Meta-Titel um, prüft Search Intent Alignment und pushed Änderungen in deine Datenbank. Du reviewst die Änderungen. Der Agent macht die Arbeit.

Warum alle gerade darüber reden

Drei Dinge sind Anfang 2026 zusammengekommen:

AI Agents wurden gut genug. Claude Code speziell kann Dateien lesen, Befehle ausführen, APIs abfragen und Kontext über ein ganzes Projekt halten. Frühere AI Tools konnten Änderungen vorschlagen. Agentische AI Tools machen Änderungen.

SEO wurde datenintensiv genug. Google Search Console gibt dir Impressionen, Klicks, CTR und Position pro Query pro Seite. Das sind tausende Datenpunkte auf einem Blog mit 30 Artikeln. Kein Mensch analysiert das alles systematisch täglich. Ein Agent kann.

Die Compound-Mathematik wurde offensichtlich. Tägliche SEO-Optimierung schlägt wöchentliche. Wöchentliche schlägt monatliche. Ein Agent der täglich 10 Minuten optimiert übertrifft einen Berater der monatlich 3 Stunden auditiert. Nicht weil er schlauer ist—weil er schneller und konsistenter ist.

Die zwei Versionen von Agentic SEO

Version 1: Enterprise ($2.000+/Monat)

Plattformen wie Wordlift, Siteimprove und seo.com bauen "Agentic SEO" Features in ihre Enterprise-Tools. Das sind Dashboard-Produkte wo AI Agents innerhalb der Plattform laufen, deinen Content analysieren und Änderungen über ihr Interface vorschlagen oder implementieren.

Das Value Prop: Managed Infrastructure, Team Collaboration, Compliance Features, Integration mit Enterprise CMS Plattformen.

Die Realität: du zahlst für die Plattform, nicht für den Agent. Die AI darunter sind dieselben Modelle die allen zur Verfügung stehen. Du zahlst für den Wrapper.

Version 2: DIY Developer Stack ($20/Monat)

Mein Ansatz. Ich habe den Agentic SEO Stack gebaut mit vier Komponenten:

  • Claude Code — der AI Agent (braucht Claude Abo)
  • Supabase — datenbankbasiertes CMS mit REST API
  • Google Search Console — Performance-Daten
  • Knowledge Files — Kontext über deine Stimme, Schema und Projekt

Gesamtkosten: das Claude Abo. Supabase hat einen Free Tier. GSC ist kostenlos. Die Knowledge Files sind Markdown-Dokumente die du einmal schreibst.

Der Tradeoff: du musst technisch genug sein um API-Verbindungen einzurichten und Knowledge Files zu schreiben. Es gibt kein Dashboard. Es gibt kein Support-Team. Es ist dein Terminal, dein Agent, deine Daten.

Für Solo-Developer und kleine Teams ist Version 2 die offensichtliche Wahl. Du bekommst dieselben agentischen Fähigkeiten ohne die Enterprise-Tax.

Wie Agentic SEO tatsächlich funktioniert (Schritt für Schritt)

Hier ist die konkrete Implementierung, nicht das Konzept-Diagramm:

1. Der Agent liest deine Performance-Daten

Claude Code verbindet sich mit Google Search Console via API-Credentials in Environment Variables. Er zieht Impressionen, Klicks, CTR und durchschnittliche Position—pro Seite, pro Query. Das ist kein wöchentlicher Export. Der Agent liest live, jede Session.

2. Der Agent identifiziert Probleme

Mit den Daten geladen gleicht der Agent gegen deinen publizierten Content in Supabase ab. Er flaggt:

  • Bleeding Pages: Hohe Impressionen, niedriger CTR. Die Seite taucht in Suchergebnissen auf aber niemand klickt. Meistens ein Meta-Titel oder Description Problem.
  • Intent Mismatches: Google zeigt die Seite für "Setup Guide" Queries aber die Seite ist als News-Artikel strukturiert. Der Content matcht nicht was der Suchende will.
  • Content Gaps: Queries mit signifikanten Impressionen wo du keine dedizierte Seite hast. Google versucht dich für diese Begriffe zu zeigen hat aber nichts Relevantes zum Ausspielen.
  • Striking Distance Seiten: Position 5-15 für wertvolle Queries. Kleine Optimierungen können diese auf Seite 1 pushen.

3. Der Agent fixt Probleme

Hier unterscheidet sich "agentic" von "assisted." Ein AI-assisted Tool sagt dir was du fixen sollst. Ein agentisches Tool fixt es.

Der Agent schreibt Meta-Titel um damit sie zur dominanten Search Query passen. Er passt Descriptions an den Search Intent an. Er fügt interne Links zu verwandtem Content hinzu. Er strukturiert Artikel um damit sie zum Content-Format passen das Google für diesen Query-Typ bevorzugt. Dann pushed er alle Änderungen direkt in Supabase via REST API.

Newsletter

Wöchentliche Insights zu AI-Architektur. Kein Spam.

Du reviewst die Änderungen. Der Agent hat die Analyse und die Ausführung gemacht. Dein Job ist Qualitätskontrolle—sicherstellen dass der Ton stimmt und die technischen Details korrekt sind.

4. Der Agent erstellt neuen Content

Für Content Gaps flaggt der Agent nicht nur die Opportunity—er draftet den Artikel. Mit Knowledge Files die deine Schreibstimme, Datenbankschema und Projektkontext definieren, schreibt er Content der nach dir klingt, nicht nach generischem AI-Output.

Die Knowledge Files sind die Geheimwaffe. Ich habe das im Detail in meinem Claude Code Architektur Breakdown dokumentiert. Ohne sie bekommst du ChatGPT-Qualität. Mit ihnen bekommst du Content kalibriert auf eine spezifische Stimme mit spezifischer Expertise.

Agentic SEO vs. Traditionelles SEO vs. AI-Assisted SEO

Drei verschiedene Ansätze:

Traditionelles SEOAI-Assisted SEOAgentic SEO
DatenanalyseManuell (Spreadsheets)AI schlägt Insights vorAgent liest Daten autonom
Content-ÄnderungenManuell (CMS Admin)AI schlägt Edits vorAgent pushed in Datenbank
ZykluszeitWöchentlich/monatlichSchneller, noch manuellTäglich (10 Minuten)
SkalierungMehr Leute einstellenÖfter promptenAgent handled mehr autonom
KostenZeitintensivTool-Abos$20/Monat + Knowledge Files
Expertise nötigSEO-WissenSEO + PromptingSEO + Engineering Basics

Die Schlüsselerkenntnis: Agentic SEO entfernt nicht den Bedarf an SEO-Wissen. Es entfernt die manuelle Arbeit SEO-Entscheidungen umzusetzen. Du musst trotzdem Search Intent, Content-Qualität und was einen guten Artikel ausmacht verstehen. Der Agent handled das Daten-Crunching, die CMS-Updates und die repetitive Optimierungsarbeit.

Die Ergebnisse die du erwarten kannst

Ich bin ehrlich darüber was Agentic SEO kann und was nicht.

Was es macht:

  • Verwandelt tägliche SEO-Pflege von 3 Stunden in 10 Minuten
  • Fängt Optimierungs-Opportunities die du manuell verpassen würdest (CTR-Drops, Intent Mismatches, Content Gaps)
  • Compoundt Ergebnisse durch tägliche Iteration statt wöchentlicher Zyklen
  • Meine Zahlen: 5 Impressionen/Woche → 68.000 Impressionen in 9 Tagen nach dem Switch zu diesem Workflow

Was es nicht macht:

  • Expertise erzeugen die du nicht hast. Wenn deine Artikel keine originellen Insights haben, fixt Agentic SEO das nicht.
  • Suchnachfrage generieren. Es optimiert für Queries die bereits existieren. Wenn niemand nach deinem Thema sucht, können Agents das nicht ändern.
  • Content Review ersetzen. Der Agent macht Fehler. Falscher Ton, ungenaue Details, schlechte Takes. Jeder Output braucht menschliches Review.

Wie du startest

Schritt 1: Infrastruktur einrichten (1 Nachmittag)

  • Claude Code installieren
  • CMS via API verbinden (Supabase, WordPress REST API, was du nutzt)
  • Google Search Console API-Zugang einrichten
  • Credentials als Environment Variables speichern

Schritt 2: Knowledge Files schreiben (1 Wochenende) Das ist der schwere und wichtigste Teil:

  • database_schema.md — deine exakte Tabellenstruktur
  • tone.md — deine Schreibstimme, Regeln, Vokabular
  • context.md — dein Hintergrund, Expertise, was deinen Content einzigartig macht
  • internal_links.md — alle publizierten Artikel mit URLs

Schritt 3: Die tägliche Routine starten (10 Min/Tag) Mein täglicher Claude Code SEO Workflow deckt das Schritt für Schritt ab: Morgen-GSC-Check, Bleeding Pages fixen, Content Gaps identifizieren, schreiben oder optimieren.

Schritt 4: Monatliches Deep Audit (optional) Agent Teams für ein umfassendes Audit nutzen—mehrere AI-Spezialisten die Content, Daten, Intent und Wettbewerber parallel analysieren.

Das Verdict

Agentic SEO ist real. Es ist kein Buzzword und es ist keine Vaporware. Es ist ein AI Agent verbunden mit deinen Daten der SEO-Arbeit autonom erledigt.

Die Enterprise-Version kostet $2.000/Monat. Die Developer-Version kostet $20/Monat plus ein Wochenende Knowledge Files schreiben. Beide nutzen dieselben zugrundeliegenden AI-Modelle. Der Unterschied ist der Wrapper.

Wenn du eine API-Verbindung einrichten und Markdown schreiben kannst, kannst du Agentic SEO heute starten. Fang mit den Knowledge Files an. Verbinde Claude Code mit deinem CMS und GSC. Führe die tägliche 10-Minuten-Routine durch. Die Ergebnisse compoundn ab Tag eins.

Die einzige Frage ist ob du die Enterprise-Version baust oder die Developer-Version. Ich habe die Developer-Version gebaut. 68.000 Impressionen in 9 Tagen später habe ich mir keine einzige Enterprise-Demo angeschaut.

Newsletter

Wöchentliche Insights zu AI-Architektur

Kein Spam. Jederzeit abbestellbar.

Häufig gestellte Fragen

Ein AI Agent mit direktem Zugang zu deiner Datenbank, Search Console Daten und Content der autonom Performance-Daten liest, SEO-Probleme identifiziert und sie fixt. Kein Dashboard oder SaaS-Produkt—ein Agent verbunden mit deiner Infrastruktur.

Enterprise-Plattformen kosten $2.000+/Monat. Der DIY Developer Stack kostet circa $20/Monat (Claude Abo) plus kostenlose Tools (Supabase Free Tier, Google Search Console). Selbe AI-Modelle, anderer Wrapper.

AI-Assisted SEO schlägt Änderungen vor die du manuell umsetzt. Agentic SEO handelt autonom—der Agent liest Daten, identifiziert Probleme, fixt sie und pushed Änderungen in deine Datenbank. Du reviewst statt auszuführen.

Claude Code (AI Agent), ein datenbankbasiertes CMS wie Supabase oder WordPress mit API-Zugang, Google Search Console API-Credentials und Knowledge Files (Markdown-Dokumente für Stimme, Schema und Kontext).

Nein. Es entfernt die manuelle Arbeit SEO-Entscheidungen umzusetzen, nicht den Bedarf an SEO-Verständnis. Du musst trotzdem Search Intent, Content-Qualität und guten Content verstehen. Der Agent handled Datenanalyse und CMS-Updates.

Tägliche SEO-Pflege sinkt von 3 Stunden auf 10 Minuten. Ergebnisse compoundn durch tägliche Iteration. Ein Beispiel: 5 Impressionen/Woche auf 68.000 Impressionen in 9 Tagen. Aber es erzeugt keine Expertise die fehlt.

Technische Infrastruktur (API-Verbindungen, Claude Code Setup): ein Nachmittag. Knowledge Files schreiben (Stimme, Schema, Kontext, interne Links): ein Wochenende. Die Knowledge Files sind 80% des Setup-Aufwands.

Ja, wenn du zumindest etwas Google Search Console Daten hast. Der Agent braucht echte Performance-Daten zum Optimieren. Blogs mit null Impressionen sollten erst Content erstellen, dann auf agentische Optimierung wechseln.

Lass uns
vernetzen.

Ich bin immer offen für spannende Diskussionen über Frontend-Architektur, Performance und moderne Web-Stacks.

Schreib mir
Schreib mir