Zum Inhalt springen
>_<
AI EngineeringWiki

Tools

n8n AI Workflow Bundle v3

14 Enterprise-Workflows für lokale Automatisierung mit Error Handling, Dual-LLM-Fallback und strukturiertem Logging.

Stand: März 2026n8n 2.xv3.0
📋 Auf einen Blick

14 produktionsreife n8n-Workflows in 5 Kategorien: Email, Social Media, Revenue, Infrastruktur und Lead-Generierung. Jeder Workflow hat einen integrierten Error Handler, Dual-LLM-Fallback (Ollama + Cloud) und strukturiertes Logging. Alle Daten bleiben lokal — DSGVO-konform.

Was sind AI-Workflows in n8n?

Ein AI-Workflow in n8n ist eine Kette von Nodes, die einen Geschäftsprozess automatisiert und dabei ein Large Language Model (LLM) für Textverarbeitung einsetzt. Der Unterschied zu klassischen n8n-Workflows: Mindestens eine Node ruft ein LLM auf — lokal via Ollama oder über eine Cloud-API.

Typische Einsatzbereiche: E-Mail-Zusammenfassungen, Content-Generierung, Lead-Qualifizierung, Support-Antworten und Datenextraktion aus unstrukturiertem Text. Das LLM übernimmt die Aufgaben, die regelbasierte Automation nicht lösen kann — Verständnis von Kontext, Tonalität und Absicht.

Die Workflow-Kategorien

Email (3 Workflows)

  • Daily Digest — E-Mails zusammenfassen und in Chat posten
  • Auto-Responder — häufige Anfragen mit AI beantworten
  • Lead Capture — Kontaktdaten aus E-Mails extrahieren

Social Media (3 Workflows)

  • Content Generator — Posts aus RSS-Feeds generieren
  • Post Scheduler — Veröffentlichung planen und ausführen
  • Engagement Monitor — Mentions und Kommentare überwachen

Revenue (3 Workflows)

  • Stripe Payment Pipeline — Webhook bis Download-Link
  • Weekly Report — Umsatzdaten aggregieren und reporten
  • Subscription Lifecycle — Trial, Kündigung, Upgrade

Infrastruktur (3 Workflows)

  • Health Check — Container, Ollama, Disk-Usage prüfen
  • Backup Monitor — Backup-Status verifizieren und alerten
  • Service Restart — Ausgefallene Services automatisch neustarten

Lead-Generierung (2 Workflows)

  • Lead Qualification — AI-Scoring nach Firmengröße, Branche, Anfrage-Qualität
  • Lead Nurture Sequence — Personalisierte Follow-up-E-Mails basierend auf Score

Workflow-Architektur

Alle 14 Workflows folgen derselben Architektur. Der Error Handler ist kein separater Workflow, sondern als Branch in jeden Workflow integriert.

Diagramm wird geladen...

Error Handling Pattern

Das Error Handling in v3 basiert auf dem n8n Error Trigger Node. Dieser Node wird automatisch ausgelöst, wenn irgendeine Node im Workflow einen Fehler wirft — egal ob HTTP-Timeout, Ollama-Fehler oder ungültige Daten.

Was der Error Handler macht

  1. 1. Fehler strukturiert loggen — Workflow-Name, Node-Name, Fehlermeldung, Zeitstempel als JSON
  2. 2. Notification senden — Team-Chat, Slack oder E-Mail (konfigurierbar)
  3. 3. Retry auslösen (optional) — mit konfigurierbarem Delay (Standard: 30 Sekunden) und maximalem Retry-Count (Standard: 3)
  4. 4. Eskalation — nach Erreichen des Retry-Limits wird eine Eskalations-Nachricht gesendet
💡 Error Handler konfigurieren

Der Error Handler nutzt dieselben Notification-Credentials wie der Haupt-Workflow. Du musst nur die Credentials einmal einrichten — der Error Handler verwendet sie automatisch.

Dual-LLM Pattern

Workflows mit Textgenerierung nutzen zwei LLM-Quellen in einer Fallback-Kette. Der primäre Call geht an Ollama (lokal). Nur wenn Ollama nicht erreichbar ist oder einen Fehler zurückgibt, wird der Cloud-Fallback aktiviert.

Diagramm wird geladen...

Konfiguration

  • Ollama-URL — Standard: http://localhost:11434, anpassbar pro Workflow
  • Modell — frei wählbar (Mistral, Llama, Qwen, etc.)
  • Cloud-Provider — OpenAI oder Anthropic (Credential in n8n hinterlegen)
  • Nur-Lokal-Modus — Cloud-Branch deaktivieren, Error Handler meldet Ollama-Ausfälle
⚠️ DSGVO-Hinweis

Wenn du den Cloud-Fallback aktivierst, werden Daten an externe Server gesendet. Prüfe, ob das für deinen Anwendungsfall DSGVO-konform ist. Im Nur-Lokal-Modus verlassen keine Daten dein Netzwerk.

Best Practices für n8n AI-Workflows

1. Credentials nie in Nodes hardcoden

Nutze n8n Credentials für alle externen Services. Das erleichtert Rotation, Auditing und verhindert, dass API-Keys in exportierten Workflows landen.

2. Test-Modus vor Aktivierung

Teste jeden Workflow im Manual-Modus, bevor du ihn aktivierst. Prüfe insbesondere den Error Handler — löse absichtlich einen Fehler aus (z.B. falsche Ollama-URL) und verifiziere, dass die Notification ankommt.

3. Ein Workflow pro Aufgabe

Baue keine Mega-Workflows, die alles machen. Jeder Workflow im Bundle hat genau eine Aufgabe. Das erleichtert Debugging, Monitoring und unabhängige Aktivierung/Deaktivierung.

4. PostgreSQL statt SQLite

Für produktive n8n-Instanzen: Nutze PostgreSQL als Backend-Datenbank. SQLite hat Lock-Probleme bei parallelen Workflow-Ausführungen und skaliert nicht über einen Node hinaus.

5. n8n 2.x Expression-Syntax beachten

In n8n 2.x müssen Expressions mit einem = Zeichen beginnen: ={{ $json.name }} statt nur {{ $json.name }}. Datumsformat ist Luxon-Syntax: yyyy-MM-dd, nicht YYYY-MM-DD.

Voraussetzungen

KomponenteMinimumEmpfohlen
n8n2.0+2.x (aktuellste Version)
Ollama0.3+Aktuellste Version mit GPU-Support
DatenbankSQLite (mitgeliefert)PostgreSQL 15+
DockerDocker ComposeDocker Swarm für Multi-Node
GPU (für Ollama)6 GB VRAM24 GB VRAM (RTX 3090/4090)

Quellen

Weiterfuehrende Artikel: n8n fuer Anfaenger · RAG Guide · Grafana Monitoring

Fuer die Umsetzung gibt es Ressourcen auf ai-engineering.at.

War dieser Artikel hilfreich?

Nächster Schritt: Workflows sauber in Betrieb bringen

Nutze bewährte n8n-Patterns, Templates und Integrationen für Workflows, die lokal, dokumentiert und auditierbar bleiben.

Warum AI Engineering
  • Lokal und self-hosted gedacht
  • Dokumentiert und auditierbar
  • Aus eigener Runtime entwickelt
  • Made in Austria
Kein Ersatz für Rechtsberatung.