Marco Patzelt
Back to Overview
12. Februar 2026

AI Agent Workflow Automation: Ein ehrlicher Developer Guide (2026)

AI Agent Workflow Automation ohne Vendor Fluff—wie ich Workflows mit Claude Code, Supabase und Knowledge Files automatisiere. Architektur, Kosten, was bricht

AI Agent Workflow Automation: Ein ehrlicher Developer Guide

Such "AI Agent Workflow Automation" und du bekommst Vendor Landing Pages, Gartner Buzzwords und Medium Posts die klingen als wären sie von den Tools generiert worden die sie reviewen. Keiner davon ist von jemandem geschrieben der diese Systeme tatsächlich baut.

Ich betreibe agentische Automation in Produktion. 45 Blog Posts, null Writer. Automatisierte SEO-Analyse, Content-Generierung, Datenbank-Publishing—alles durch AI Agents die ich selbst gebaut habe. Hier ist was der Vendor Content dir nicht sagt: das Mental Model, die Architektur, was tatsächlich funktioniert, und was immer noch Marketing-Fiktion ist.

Das Mental Model: Pipes für Daten

Vor Tools, Frameworks oder Plattformen—versteh das Pattern. Jede Workflow Automation, AI-powered oder nicht, ist dasselbe:

Data in → Logik angewendet → Data out.

Das wars. Jede API ist eine Pipe. Jede Datenbank ist eine Pipe. Jedes Frontend ist eine Pipe. Meine gesamte Engineering-Karriere war Pipes für Daten legen—Middleware die ein langsames Enterprise CRM mit einem schnellen Frontend verbindet, Sync Layer die Legacy-Systeme mit modernen UIs bridgen. Selbes Pattern auf jeder Ebene.

Die einzige Frage die für "agentische" Automation zählt: sind die Pipes statisch oder dynamisch?

Statische Pipes: Du schreibst die Logik einmal. "Wenn E-Mail 'Rechnung' enthält, verschiebe in Buchhaltung-Ordner." Funktioniert bis sich die Welt ändert. Bricht wenn Inputs nicht zu deinen if-Statements passen.

Dynamische Pipes: Ein AI Agent generiert das Routing zur Laufzeit basierend auf was die Daten tatsächlich brauchen. "Lies diese E-Mail, finde heraus worum es geht, entscheide was damit passieren soll, mach es." Passt sich an neue Patterns an ohne Code-Änderungen.

Das ist der gesamte Unterschied zwischen traditioneller Automation und agentischer Orchestrierung. Selbe Pipes. Selber Datenfluss. Das Routing wird von einem Model entschieden statt von einem if-Statement. Das zu verstehen bewahrt dich vor der größten Falle im Space: eine "Agent Plattform" kaufen wenn ein gut platzierter API Call reichen würde.

Was "Agentisch" wirklich bedeutet (und was nicht)

Es gibt eine Definition von "agentisch" die bedeutet "die AI macht alles autonom—entscheidet woran sie arbeitet, führt aus, publisht, kein Mensch involviert." Das ist nicht agentisch. Das ist unkontrolliert. Und es ist ein Compliance-Risiko das kein Produktionssystem akzeptieren sollte.

Hier ist was agentisch in der Praxis wirklich bedeutet:

Der Agent entscheidet die Routen. Ich sage "schreib über AI Agent Workflow Automation." Ich sage nicht "query die posts Tabelle, nutze das Signal Amplification Template, target diese Keywords, cross-linke zu Artikeln 12 und 37." Der Agent liest seine Knowledge Files, queried Supabase, schaut was published ist, und entscheidet das alles selbst. Das Routing ist dynamisch—zur Laufzeit generiert basierend auf Kontext, nicht hardcoded in einen Workflow.

Der Agent entscheidet welche Daten er zieht. Ich sage ihm nicht welche Tabellen er querien oder welche Filter er nutzen soll. Er entscheidet dass er bestehende Posts für Cross-Linking braucht, generiert den Python Code um sie zu fetchen, führt die Query aus, liest die Ergebnisse, und bezieht sie in seine Entscheidungen ein. Das Data Access Pattern wird vom Agent bestimmt, nicht von mir.

Der Agent entscheidet den Ausführungspfad. Keine zwei Sessions folgen den gleichen Schritten. Ein Bullshit Detection Artikel bekommt andere Behandlung als ein Setup Guide. Der Agent liest das Thema, klassifiziert es, wählt das Template, passt die Struktur an. Selber Input Prompt, unterschiedliches internes Reasoning, unterschiedlicher Output. Das ist die Definition von dynamischem Routing.

Der Mensch entscheidet den Scope. Ich sage woran gearbeitet wird. Der Agent entscheidet wie. Das entfernt keine Agency—das scoped die Aufgabe. Jedes Produktions-Agent-System funktioniert so. Ein VP sagt einem Analysten "bereite den Q1 Report vor." Der Analyst entscheidet welche Daten er zieht, welche Charts er macht, was er hervorhebt. Niemand nennt den Analysten "nicht agentisch" weil ein Mensch ihm gesagt hat woran er arbeiten soll.

Die "voll autonome" Fantasie—eine AI die aufwacht, heute entscheidet über Kubernetes zu schreiben, ohne Review publisht, und dein CRM updatet während du schläfst—ist ein Vendor Pitch, keine Architektur. In Wirklichkeit:

  • Wer haftet wenn der autonome Agent halluzinierte Daten publisht?
  • Wer fängt es ab wenn der Agent Produktions-Datenbankzeilen mit falschen Werten überschreibt?
  • Wer handelt wenn der Agent entscheidet einen Kundenbericht zu "optimieren" indem er schlechte Metriken entfernt?

Volle Autonomie ist nicht das Ziel. Kontrollierte Agency ist es. Der Agent hat maximale Freiheit innerhalb der Session—er entscheidet was er liest, wie er reasoned, was er generiert, wie er den Output strukturiert. Der Mensch entscheidet wann eine Session startet und ob der Output shippt. Das ist keine Limitation. Das ist die Architektur die agentische Systeme sicher genug für Produktion macht.

Mein Stack: Claude Code + Supabase + Make.com

Kein fancy Orchestration Layer. Keine Webhook-Ketten. Kein Scheduler der den Agent triggert. So funktioniert es wirklich:

Ich öffne ein Terminal. Ich sage Claude Code was ich brauche. Der Agent hat bereits Zugriff auf alles—Knowledge Files lokal geladen, Supabase Credentials in Environment Variables, voller Kontext über meine Content-Strategie, Datenbank-Schema und Voice. Er liest, reasoned, generiert Code, führt ihn aus, und schreibt Ergebnisse nach Supabase. Fertig.

Das ist der Kern. Der Agent arbeitet mit Daten auf die er bereits Zugriff hat. Er queried Supabase um zu sehen was published ist, liest Knowledge Files um die Regeln zu verstehen, und schreibt neue Daten zurück. Kein externer Trigger nötig. Ich bin der Trigger.

Make.com triggert den Agent nicht. Make.com sitzt downstream—es überwacht Supabase auf neue Zeilen und schickt mir eine Slack Notification wenn ein Draft landet. Das wars. Es ist ein Notification Layer, kein Orchestration Layer.

Der Agent ist kein Background Job. Ich habe keinen Cron der Claude Code Sessions um 6 Uhr morgens feuert. Ich setze mich hin, öffne das Terminal, gebe dem Agent eine Aufgabe. Manchmal ist das "schreib einen Artikel über dieses Thema." Manchmal ist es "analysiere GSC Daten und sag mir welche Artikel Optimierung brauchen." Der Agent entscheidet wie er es handhabt basierend auf seinen Knowledge Files und den Daten die er aus Supabase liest.

Das ist eine wichtige Unterscheidung. Die meisten "agentische Automation" Inhalte gehen davon aus dass du einen Orchestrator brauchst, einen Scheduler, ein Trigger-System. Für den Reasoning Layer—den Teil wo AI tatsächlich Wert schafft—brauchst du das oft nicht. Du brauchst ein Terminal und eine Datenbank.

Wie eine echte agentische Session aussieht

Abstrakte Architektur ist nutzlos ohne konkretes Beispiel. So sieht eine tatsächliche Optimierungs-Session aus:

Ich öffne das Terminal und gebe dem Agent eine Aufgabe.

"Geh alle GSC Daten durch, check jeden publizierten Artikel, und sag mir was wir optimieren sollten."

Das wars. Kein Webhook. Kein Scheduler. Keine Trigger-Kette. Ich tippe einen Satz und der Agent übernimmt.

Der Agent lädt Kontext aus Knowledge Files.

10 Dateien, ~32KB total. Sie definieren meine Content-Strategie, Datenbank-Schema, SEO Framework und Qualitätsregeln. Der Agent weiß was "gut" aussieht bevor er irgendwelche Daten anfasst. Jeder kann Claude Code nutzen. Niemand sonst hat meine Knowledge Files.

Der Agent zieht Daten aus mehreren Quellen.

Er queried Google Search Console nach Impressions, Clicks und CTR pro Artikel. Er liest jeden publizierten Post aus Supabase—Titel, Meta Descriptions, Keywords. Er gleicht ab: welche Artikel haben hohe Impressions aber null Clicks? Welche Keywords kannibalisieren sich? Wo sind die Lücken?

Der Agent baut einen strukturierten Report.

20 Work Items, priorisiert. "Artikel X hat 2.000 Impressions bei 0.1% CTR—Titel matcht nicht den Search Intent, umschreiben zu Y." "Keyword Gap: 'claude code supabase' hat 400 monatliche Suchen, kein dedizierter Artikel." "Artikel A und B kannibalisieren auf 'opus 4.6'—Meta Descriptions konsolidieren." Jedes Item hat Daten, Diagnose und eine konkrete Empfehlung.

Ich reviewe und entscheide.

12 Items sind solide. 3 sind Grenzfälle die ich lieber nicht anfasse. 5 sind niedrig priorisiert. Ich sage dem Agent: "Mach Items 1, 2, 4, 7, 9, 11, 12, 14, 16, 18, 19, 20. Rest überspringen."

Der Agent führt aus.

Schreibt 6 Title Tags um. Patcht 4 Meta Descriptions. Generiert 2 neue Artikel für Keyword Gaps die er gefunden hat. Schreibt alles nach Supabase. Ich klicke ein paar Mal Enter um jeden Batch zu approven.

Fertig.

Arbeit die normalerweise 2-3 Tage manuelle Analyse, Schreiben und Datenbank-Updates dauern würde—in 30 Minuten erledigt. Nicht weil die AI schneller tippt. Weil die AI die 80% handhabt die mechanisch sind (Daten ziehen, Abgleichen, Pattern Matching, Formatieren) und ich die 20% handle die Urteilsvermögen erfordern (welche Optimierungen wirklich zählen, was zu priorisieren ist).

Menschliche Gesamtzeit: 30 Minuten. Der Bottleneck bin ich beim Entscheiden, nicht der Agent beim Arbeiten.

Knowledge Files: Der Teil den alle ignorieren

Jedes "wie man einen AI Agent baut" Tutorial fokussiert auf das Tool. Installiere dies, konfiguriere das, verbinde diese Nodes. Sie überspringen den Teil der tatsächlich bestimmt ob der Output gut ist.

Knowledge Files sind der Business Logic Layer. Einfache Markdown-Dateien die der Agent vor jeder Session liest. Sie definieren was "gut" für deinen spezifischen Use Case bedeutet.

Hier ist was meine enthalten:

DateiGrößeWas sie tut
tone.md4KBSchreib-Voice, verbotene Phrasen, Satzrhythmus-Regeln
database_schema.md3KBJede Column, jeden Typ, jedes Constraint das der Agent respektieren muss
seo_keywords.md2KBKeyword Prediction Framework, Title Engineering Formeln
article_types.md5KBTemplates für Bullshit Detection, Signal Amplification, Leak Analysis, Comparison
writing_style.md4KBHook-Formeln, Paragraph-Regeln, "Zahlen statt Adjektive"
faq_schema.md3KBFAQ Templates nach Artikeltyp, JSON-LD Struktur, Qualitäts-Checkliste
workflow.md3KBInput → Output Flow, Quality Gates, Meta Output Format
examples.md5KBVollständige Artikel-Breakdowns mit gutem vs schlechtem Output
internal_links.md1KBBestehende Artikel und Slugs für Cross-Linking
marco_context.md2KBHintergrund-Kontext für Voice Kalibrierung
Newsletter

Wöchentliche Insights zu AI-Architektur. Kein Spam.

~32KB total. Ein Wochenende zum Schreiben. Iterativ verbessert über Wochen wenn ich Patterns erkenne in dem was der Agent richtig und falsch macht.

Darum sage ich Knowledge Files sind 80% des Werts. Ohne sie ist Claude Code ein generischer Assistent. Mit ihnen ist es ein Agent der meine Content-Strategie kennt, meine Voice, mein Datenbank-Schema und mein SEO Framework. Das Model ist der Motor. Die Knowledge Files sind das Lenkrad.

Das Key Insight: Wenn der Output des Agents falsch ist, liegt der Fix fast immer in den Knowledge Files—nicht im Code, nicht im Prompt, nicht im Model. Besseres Beispiel hinzufügen. Regel klären. Constraint verschärfen. Der Agent adaptiert sofort in der nächsten Session.

Dieses Pattern auf jeden Workflow anwenden

Der Report → Review → Execute Loop ist nicht auf SEO beschränkt. Er funktioniert für alles mit der gleichen Form: viele Daten, viele kleine Entscheidungen, strukturierter Output. Ich habe drei konkrete Business Setups detailliert die genau dieses Pattern nutzen mit vollständigen Schemas und Code.

Codebase Audit: "Geh durch das Repo, finde jeden API Endpoint ohne Rate Limiting, gib mir einen Report." Agent scannt, reportet 15 ungeschützte Endpoints mit Risikostufen. Du wählst welche zu fixen sind. Agent generiert die Middleware.

Client Daten Cleanup: "Check jeden Kundendatensatz gegen das CRM, flagge Duplikate und fehlende Felder." Agent gleicht 2.000 Datensätze ab, reportet 180 Issues. Du approvst die Merge-Regeln. Agent führt aus.

Content Migration: "Lies jeden Artikel im alten CMS, mappe Felder auf das neue Schema, flagge alles was nicht passt." Agent verarbeitet 500 Artikel, reportet 40 Edge Cases. Du machst die Judgment Calls. Agent führt die Migration durch.

Selber Loop jedes Mal. Agent macht die Volumen-Arbeit. Du machst die Judgment Calls. Denk nicht an den Agent als "schreibt Sachen für dich." Denk an ihn als "analysiert alles und gibt dir die 20 Entscheidungen die wirklich zählen." Dein Job ist nicht die Arbeit machen. Dein Job ist die Calls machen.

Was kaputt geht (und wie ich es fixe)

Agentische Workflows in Produktion betreiben lehrt dich Dinge die kein Tutorial abdeckt.

Tone Drift. Nach langen Sessions oder komplexen Themen driftet der Agent Richtung generische AI-Schreibstimme. Der Fix: explizit verbotene Phrasen in tone.md ("sag niemals 'in der heutigen sich schnell entwickelnden Landschaft'") und konkrete Beispiele von gutem vs schlechtem Output in examples.md. Kurze Sessions helfen auch—ein Artikel pro Session, nicht fünf.

Schema Mismatches. Der Agent generiert manchmal JSON das nicht zu Datenbank-Column-Types passt. Ein JSONB Feld bekommt einen String. Ein TEXT[] Feld bekommt einen plain String statt eines Arrays. Der Fix: database_schema.md mit exakten Types, Constraints und Beispielwerten für jede Column.

Halluzinierte Daten. Der Agent erfindet gelegentlich Statistiken oder ordnet Zitate falschen Quellen zu. Der Fix ist nicht technisch—es ist der menschliche Review-Schritt. Jeder Output landet als status: "draft". Nichts erreicht das Frontend ohne meine Augen drauf. Nicht verhandelbar für jedes agentische System das öffentlich sichtbaren Content produziert.

Über-Optimierung. Gib dem Agent zu viele SEO-Regeln und er schreibt für Google statt für Menschen. Keyword Stuffing, unnatürliche Header, erzwungene FAQ-Fragen. Der Fix: Knowledge Files umschreiben mit Betonung auf "schreib für Menschen zuerst, optimiere für Search danach." Prioritätsreihenfolge zählt.

API Failures. Supabase geht down. Eine API hat Timeout. Der Runtime-Code des Agents trifft einen 500 Error. Der Agent handhabt das normalerweise in der Session—er sieht den Error, retried oder berichtet zurück. Wenn ein Write still fehlschlägt, fange ich es beim Review: die erwartete Zeile ist nicht in Supabase, ich starte die Session neu. Nicht elegant, aber produktions-simpel.

Nichts davon wird durch ein fancyeres Tool gelöst. Es wird gelöst durch bessere Knowledge Files, bessere menschliche Review-Prozesse und ehrliche Akzeptanz dass agentische Systeme 90% zuverlässig sind, nicht 100%.

Wie das im Vergleich zu anderen Ansätzen steht

Ich werde nicht so tun als wäre mein Stack die einzige Option. Hier ist wo andere Tools mehr Sinn ergeben—und wo nicht.

Visual Workflow Builder (Make.com, n8n, Zapier) sind besser wenn du SaaS Tools mit geradliniger Logik verbindest. Stripe Payment → Slack Notification → Google Sheet Zeile. Ich nutze Make.com für downstream Delivery—Supabase auf neue Zeilen überwachen und Notifications senden. Aber sobald die AI kontextabhängige Entscheidungen treffen muss, stoßen Visual Builder an ihre Grenzen. Ihre "AI Nodes" sind Prompt-rein, Prompt-raus. Ein Schritt, eine Antwort. Das ist nicht agentisch—das ist ein LLM Call in einem Workflow.

n8n ist die Developer-Ausnahme hier. Sein Code Node lässt dich vollständiges JavaScript oder Python mitten im Workflow schreiben, und seine AI Agent Nodes unterstützen MCP Server und Tool Use. Wenn ich komplexes Multi-Branch Error Handling mit visuellem Debugging bräuchte, wäre n8n meine Wahl. Aber für den Reasoning Layer selbst—wo der Agent Kontext liest, entscheidet was zu tun ist, und strukturierten Output generiert—würde ich trotzdem Claude Code nutzen.

Agent Frameworks (CrewAI, LangGraph, AutoGen) ergeben Sinn wenn du wirklich mehrere Agents brauchst die koordinieren—Agents die Aufgaben an andere Agents übergeben. Für einen einzelnen Agent der Daten verarbeitet und Ergebnisse in eine Datenbank schreibt, fügen sie Komplexität hinzu ohne Capability hinzuzufügen. Ein Agent mit guten Knowledge Files schlägt drei Agents die darüber streiten wer was macht.

Enterprise Plattformen ($500-5.000+/Monat) lösen Governance-Probleme für große Organisationen. Audit Trails, RBAC, zentrales Management. Wenn du 50 Leute hast die hunderte Workflows bauen, brauchst du diese Features. Wenn du ein Dev oder kleines Team bist, bezahlst du für Konferenzraum-Features die du nie nutzen wirst.

Das ehrliche Takeaway: die meisten Developer werden 2-3 Tools kombinieren. Ich nutze Claude Code + Supabase für das Gehirn (weil das AI Reasoning der gesamte Wert ist) und Make.com downstream für Notifications und SaaS Connections. Die Tools sind keine Konkurrenten. Es sind verschiedene Jobs.

Das Decision Framework

Wenn jemand fragt "soll ich einen AI Agent dafür bauen?"—hier ist mein Decision Tree:

Kannst du die Logik in einem Satz ohne Bedingungen beschreiben? → Cron Job + Shell Script. Don't agent what you can cron.

Ist die Logik fix aber verbindet mehrere SaaS Tools? → Make.com oder n8n. Klassische Workflow Automation. Füge einen LLM Schritt hinzu wenn du Klassifikation oder Zusammenfassung brauchst.

Muss die AI basierend auf variierendem Kontext entscheiden was als nächstes passiert? → Das ist ein echter Agent. Claude Code + Datenbank + Knowledge Files. Du scopst die Aufgabe. Der Agent entscheidet die Routen, die Daten und die Ausführung.

Die meisten Workflows sind die ersten zwei Kategorien. Echte agentische Use Cases—wo die Laufzeit-Entscheidungen der AI über Routen und Daten der Kernwert sind—sind vielleicht 10-20% von dem was als "Agent Automation" verkauft wird.

Meine Content Pipeline ist wirklich agentisch. Ich sage "schreib über dieses Thema." Der Agent entscheidet was er liest, welches Template er nutzt, wie er es strukturiert, was er cross-linkt. Meine Stripe-zu-Slack Notification ist es nicht—jeder Input folgt dem gleichen fixen Pfad. Beides ist automatisiert. Nur eines braucht einen Agent.

Die Kosten-Realität

KomponenteToolMonatliche Kosten
Trigger + DeliveryMake.com (Pro)$9
AI ReasoningClaude Pro (Claude Code)$20
DatenbankSupabase (Free Tier)$0
Agent SandboxingE2B (Free Tier)$0
Total$29/Monat

Zum Kontext: ein Junior Content Writer kostet $3.000-5.000/Monat. Ein virtueller Assistent für Datenverarbeitung kostet $1.500-3.000/Monat. Enterprise "agentische Plattformen" berechnen $500-5.000+/Monat.

$29/Monat ersetzt die 80% dieser Arbeit die mechanisch ist—Daten ziehen, Formatieren, First-Draft schreiben, Pattern Matching. Die 20% die Urteilsvermögen, Beziehungen und kreatives Denken erfordern? Immer noch Mensch. Das ist der Review-Schritt.

Fünf Regeln aus Produktion

1. Starte mit dem Output, nicht dem Tool. Definiere welche Daten du willst, in welchem Format, in welcher Datenbank-Tabelle. Arbeite rückwärts. Ich habe mein Supabase Schema designt bevor ich ein einziges Knowledge File geschrieben habe.

2. Knowledge Files sind 80% des Werts. Das Tool ist fast egal. Was zählt sind die Business Rules, der Kontext, die Beurteilungskriterien die du kodierst. Ein mittelmäßiges Tool mit großartigen Knowledge Files schlägt ein großartiges Tool mit vagen Instruktionen. Verbringe das Wochenende damit sie zu schreiben. Höchste ROI Arbeit die du machen wirst.

3. Halte den Agent und die Delivery getrennt. Der Agent schreibt in die Datenbank. Make.com, Slack, E-Mail—die konsumieren die Datenbank. Wenn Make.com down geht, ist dein Agent Output immer noch sicher in Supabase. Wenn der Agent eine schlechte Session hat, bricht deine Delivery Pipeline nicht. Entkoppelte Systeme scheitern graceful.

4. Baue den Human Review Schritt zuerst. Vor dem Agent, vor den Knowledge Files—baue die Draft → Review → Publish Pipeline. Das ist das Sicherheitsnetz das dir erlaubt schnell mit AI zu arbeiten ohne Vertrauen zu zerstören. Nicht verhandelbar.

5. Don't agent what you can cron. Wenn die Logik sich nie ändert und es keine Ambiguität im Input gibt, ist ein geplantes Script simpler, günstiger und zuverlässiger. Spar das AI Budget für Workflows wo Urteilsvermögen und Kontext wirklich zählen.

Das Fazit

AI Agent Workflow Automation ist real, nützlich, und schlecht vermarktet. Das Vendor-Ökosystem will dir weismachen du brauchst eine Plattform. Brauchst du nicht. Du brauchst das richtige Tool für jede Ebene deiner Pipeline und du brauchst Knowledge Files die deine tatsächliche Business Logic kodieren.

Für die meisten Developer in 2026: Claude Code + Supabase für Reasoning ($20/Monat), Make.com für downstream Notifications und SaaS Glue ($9/Monat), und ehrliche Akzeptanz dass 80-90% von "agentischem AI" Marketing reguläre Automation mit einem LLM Call in der Mitte beschreibt.

Der schnellste Weg von "Idee" zu "laufender Agent in Produktion" ist kein Drag-and-Drop Builder. Es ist ein Terminal, eine Datenbank und ein paar gut geschriebene Knowledge Files. Starte mit einem Workflow. Definiere den Output. Bau die Pipes. Lass den Agent das Denken übernehmen.

Newsletter

Wöchentliche Insights zu AI-Architektur

Kein Spam. Jederzeit abbestellbar.

Häufig gestellte Fragen

AI Agent Workflow Automation nutzt AI Modelle um Laufzeit-Entscheidungen in automatisierten Pipelines zu treffen—Lead Scoring, Content Generierung, Request Routing—anstatt hardcoded if/else Logik zu folgen. Die AI liest Kontext und entscheidet zur Laufzeit.

Bei normaler Automation bestimmt der Workflow den Pfad und das LLM füllt einen Schritt aus. Bei agentischer Automation entscheidet die AI die Routen—welche Daten lesen, welche Logik anwenden, wie Output strukturieren. Mensch scoped die Aufgabe, Agent entscheidet den Rest.

Unter $30/Monat: Make.com für Trigger ($9), Claude Code für AI Reasoning ($20), Supabase Free Tier für Storage. Enterprise Agent Plattformen ab $500-5.000+/Monat für Governance Features die kleine Teams nie nutzen.

Einfache Markdown-Dateien die Business Rules, Schreibstil, Datenbank-Schemas und Entscheidungskriterien definieren. Sie sind 80% des System-Werts—machen aus einem generischen LLM einen spezialisierten Agent. Typisch 20-40KB, an einem Wochenende geschrieben.

Für die meisten Business Workflows nein. Agent Frameworks sind für Multi-Agent Orchestrierung wo Agents koordinieren. Ein Agent der Daten liest und in eine Datenbank schreibt? Claude Code + REST API ist einfacher und günstiger.

Bei 90% Zuverlässigkeit ja—mit obligatorischem Human Review. Agents driften im Ton und halluzinieren gelegentlich. Die Lösung: Draft-Review-Publish Pipeline wo jeder Output erst menschliche Augen sieht. 90% Automation spart 10-20h/Woche; 10% Review hält Qualität hoch.

Make.com für Trigger und SaaS Connections, Claude Code + Supabase für AI Reasoning und Storage, E2B für sandboxed Execution. Unter $30/Monat total. Key Insight: Trigger (günstig) von Reasoning (smart) von Delivery (günstig) trennen.

Fixe Logik, vorhersehbare Inputs → Cron Job. SaaS verbinden mit einfachem Routing → Make.com oder n8n. AI muss variierenden Kontext lesen und zur Laufzeit entscheiden → das ist ein Agent. Nur 10-20% der Workflows brauchen wirklich agentisches Reasoning.

Lass uns
vernetzen.

Ich bin immer offen für spannende Diskussionen über Frontend-Architektur, Performance und moderne Web-Stacks.

Schreib mir
Schreib mir