Tools
n8n AI Workflow Bundle v3
14 Enterprise-Workflows für lokale Automatisierung mit Error Handling, Dual-LLM-Fallback und strukturiertem Logging.
14 produktionsreife n8n-Workflows in 5 Kategorien: Email, Social Media, Revenue, Infrastruktur und Lead-Generierung. Jeder Workflow hat einen integrierten Error Handler, Dual-LLM-Fallback (Ollama + Cloud) und strukturiertes Logging. Alle Daten bleiben lokal — DSGVO-konform.
Was sind AI-Workflows in n8n?
Ein AI-Workflow in n8n ist eine Kette von Nodes, die einen Geschäftsprozess automatisiert und dabei ein Large Language Model (LLM) für Textverarbeitung einsetzt. Der Unterschied zu klassischen n8n-Workflows: Mindestens eine Node ruft ein LLM auf — lokal via Ollama oder über eine Cloud-API.
Typische Einsatzbereiche: E-Mail-Zusammenfassungen, Content-Generierung, Lead-Qualifizierung, Support-Antworten und Datenextraktion aus unstrukturiertem Text. Das LLM übernimmt die Aufgaben, die regelbasierte Automation nicht lösen kann — Verständnis von Kontext, Tonalität und Absicht.
Die Workflow-Kategorien
Email (3 Workflows)
- Daily Digest — E-Mails zusammenfassen und in Chat posten
- Auto-Responder — häufige Anfragen mit AI beantworten
- Lead Capture — Kontaktdaten aus E-Mails extrahieren
Social Media (3 Workflows)
- Content Generator — Posts aus RSS-Feeds generieren
- Post Scheduler — Veröffentlichung planen und ausführen
- Engagement Monitor — Mentions und Kommentare überwachen
Revenue (3 Workflows)
- Stripe Payment Pipeline — Webhook bis Download-Link
- Weekly Report — Umsatzdaten aggregieren und reporten
- Subscription Lifecycle — Trial, Kündigung, Upgrade
Infrastruktur (3 Workflows)
- Health Check — Container, Ollama, Disk-Usage prüfen
- Backup Monitor — Backup-Status verifizieren und alerten
- Service Restart — Ausgefallene Services automatisch neustarten
Lead-Generierung (2 Workflows)
- Lead Qualification — AI-Scoring nach Firmengröße, Branche, Anfrage-Qualität
- Lead Nurture Sequence — Personalisierte Follow-up-E-Mails basierend auf Score
Workflow-Architektur
Alle 14 Workflows folgen derselben Architektur. Der Error Handler ist kein separater Workflow, sondern als Branch in jeden Workflow integriert.
Error Handling Pattern
Das Error Handling in v3 basiert auf dem n8n Error Trigger Node. Dieser Node wird automatisch ausgelöst, wenn irgendeine Node im Workflow einen Fehler wirft — egal ob HTTP-Timeout, Ollama-Fehler oder ungültige Daten.
Was der Error Handler macht
- 1. Fehler strukturiert loggen — Workflow-Name, Node-Name, Fehlermeldung, Zeitstempel als JSON
- 2. Notification senden — Team-Chat, Slack oder E-Mail (konfigurierbar)
- 3. Retry auslösen (optional) — mit konfigurierbarem Delay (Standard: 30 Sekunden) und maximalem Retry-Count (Standard: 3)
- 4. Eskalation — nach Erreichen des Retry-Limits wird eine Eskalations-Nachricht gesendet
Der Error Handler nutzt dieselben Notification-Credentials wie der Haupt-Workflow. Du musst nur die Credentials einmal einrichten — der Error Handler verwendet sie automatisch.
Dual-LLM Pattern
Workflows mit Textgenerierung nutzen zwei LLM-Quellen in einer Fallback-Kette. Der primäre Call geht an Ollama (lokal). Nur wenn Ollama nicht erreichbar ist oder einen Fehler zurückgibt, wird der Cloud-Fallback aktiviert.
Konfiguration
- Ollama-URL — Standard: http://localhost:11434, anpassbar pro Workflow
- Modell — frei wählbar (Mistral, Llama, Qwen, etc.)
- Cloud-Provider — OpenAI oder Anthropic (Credential in n8n hinterlegen)
- Nur-Lokal-Modus — Cloud-Branch deaktivieren, Error Handler meldet Ollama-Ausfälle
Wenn du den Cloud-Fallback aktivierst, werden Daten an externe Server gesendet. Prüfe, ob das für deinen Anwendungsfall DSGVO-konform ist. Im Nur-Lokal-Modus verlassen keine Daten dein Netzwerk.
Best Practices für n8n AI-Workflows
1. Credentials nie in Nodes hardcoden
Nutze n8n Credentials für alle externen Services. Das erleichtert Rotation, Auditing und verhindert, dass API-Keys in exportierten Workflows landen.
2. Test-Modus vor Aktivierung
Teste jeden Workflow im Manual-Modus, bevor du ihn aktivierst. Prüfe insbesondere den Error Handler — löse absichtlich einen Fehler aus (z.B. falsche Ollama-URL) und verifiziere, dass die Notification ankommt.
3. Ein Workflow pro Aufgabe
Baue keine Mega-Workflows, die alles machen. Jeder Workflow im Bundle hat genau eine Aufgabe. Das erleichtert Debugging, Monitoring und unabhängige Aktivierung/Deaktivierung.
4. PostgreSQL statt SQLite
Für produktive n8n-Instanzen: Nutze PostgreSQL als Backend-Datenbank. SQLite hat Lock-Probleme bei parallelen Workflow-Ausführungen und skaliert nicht über einen Node hinaus.
5. n8n 2.x Expression-Syntax beachten
In n8n 2.x müssen Expressions mit einem = Zeichen beginnen: ={{ $json.name }} statt nur {{ $json.name }}. Datumsformat ist Luxon-Syntax: yyyy-MM-dd, nicht YYYY-MM-DD.
Voraussetzungen
| Komponente | Minimum | Empfohlen |
|---|---|---|
| n8n | 2.0+ | 2.x (aktuellste Version) |
| Ollama | 0.3+ | Aktuellste Version mit GPU-Support |
| Datenbank | SQLite (mitgeliefert) | PostgreSQL 15+ |
| Docker | Docker Compose | Docker Swarm für Multi-Node |
| GPU (für Ollama) | 6 GB VRAM | 24 GB VRAM (RTX 3090/4090) |
Quellen
- n8n.io — Offizielle Website
- n8n Dokumentation — Nodes, Expressions, API
- n8n Error Handling — Offizielle Dokumentation zu Error Trigger Nodes
- Ollama — Lokale LLM Runtime
- Blog: n8n AI Workflow Bundle v3 — Einführungsartikel mit Setup-Anleitung
Weiterfuehrende Artikel: n8n fuer Anfaenger · RAG Guide · Grafana Monitoring
Fuer die Umsetzung gibt es Ressourcen auf ai-engineering.at.
War dieser Artikel hilfreich?
Nächster Schritt: Workflows sauber in Betrieb bringen
Nutze bewährte n8n-Patterns, Templates und Integrationen für Workflows, die lokal, dokumentiert und auditierbar bleiben.
- Lokal und self-hosted gedacht
- Dokumentiert und auditierbar
- Aus eigener Runtime entwickelt
- Made in Austria