Tools
CLI Coding Agents im Vergleich
Claude Code, Mistral Vibe, Gemini CLI und OpenAI Codex CLI — ehrlicher Vergleich mit Feature-Matrix, Preisen, DSGVO-Bewertung und Praxis-Erfahrung.
CLI Coding Agents sind Terminal-basierte AI-Assistenten, die direkt in deinem Dateisystem arbeiten: Code lesen, schreiben, editieren, Shell-Befehle ausführen und Git-Operationen durchführen. Im Gegensatz zu Chat-Interfaces wie ChatGPT oder Claude.ai arbeiten sie direkt in deinem Projekt-Kontext und können komplexe mehrstufige Aufgaben autonom erledigen.
Dieser Vergleich basiert auf unserer täglichen Praxis-Erfahrung. Wir nutzen Claude Code als Haupt-Tool und haben die Alternativen systematisch getestet. Die Bewertung ist ehrlich: Wo andere besser sind, sagen wir das.
Die 4 Agents im Detail
1. Claude Code (Anthropic)
CLI Agent mit dem stärksten Reasoning
Modell
Claude Opus 4.6 / Sonnet 4.6
Open Source
CLI ist Open Source, Modell ist proprietär
Lokal möglich
Nein — ausschließlich über Anthropic API
Preis
Anthropic API: $3–15 / 1M Tokens
Protocol
MCP (Model Context Protocol)
Context Window
200K–1M Tokens
Tools
Stärken
- Bestes Reasoning aller getesteten Agents
- Subagenten für parallele Aufgaben
- MCP-Integration (Notion, Playwright, Docker, etc.)
- Hooks für automatische Qualitätssicherung
- Skills und Plugin-System
- Git Worktrees für isolierte Branches
- Plan Mode für komplexe Aufgaben
Schwächen
- Nicht lokal ausführbar — alle Daten gehen an Anthropic API
- Teuer bei hohem Volumen ($150–500/Monat bei intensiver Nutzung)
- Abhängigkeit von Anthropic als einzigem Anbieter
- Kein Free Tier für die API
Besonderheiten
Subagenten können parallel arbeiten und komplexe Aufgaben aufteilen. Hooks ermöglichen automatische Regeln (z.B. "nie löschen ohne Bestätigung"). CLAUDE.md-Dateien definieren projektspezifisches Verhalten. MCP-Server erweitern die Fähigkeiten um externe Tools (Datenbanken, Browser, APIs).
2. Mistral Vibe (Mistral AI)
Der einzige Agent der vollständig lokal läuft
Modell
Devstral 2 (123B) / Devstral Small 2 (24B)
Open Source
Ja — MIT / Apache 2.0
Lokal möglich
Ja — Devstral Small 2 (24B) läuft auf RTX 3090
Preis
Le Chat Plans oder Self-hosted kostenlos
Protocol
ACP (Agent Communication Protocol)
Context Window
~128K Tokens
Tools
Stärken
- Vollständig Open Source (MIT / Apache 2.0)
- Lokal ausführbar — keine Daten verlassen das Unternehmen
- 24B-Modell läuft auf Consumer-GPU (RTX 3090)
- DSGVO-konform ohne zusätzliche Maßnahmen
- Eigenes Protocol (ACP) für Agent-Kommunikation
Schwächen
- Weniger Tool-Vielfalt als Claude Code (4 vs. 10+ Tools)
- Jüngeres Ökosystem — weniger Plugins und Integrationen
- Reasoning-Qualität unter Claude Opus 4.6
- Kein MCP-Support (eigenes ACP-Protocol)
- Turn-Limit bei komplexen Aufgaben (5 Turns im Test)
Getestete Version
v2.5.0
3. Gemini CLI (Google)
Größtes Context Window und kostenloses Free Tier
Modell
Gemini 2.5 Pro / Flash
Open Source
CLI ist Open Source, Modell ist proprietär
Lokal möglich
Nein — ausschließlich über Google AI API
Preis
Google AI API (Free Tier vorhanden)
Protocol
Standard API
Context Window
1M+ Tokens
Stärken
- 1M+ Context Window — größtes aller getesteten Agents
- Kostenloses Free Tier für den Einstieg
- Multimodale Fähigkeiten (Bilder, Code, Text)
- 98k+ GitHub Stars — große Community
Schwächen
- Weniger Code-fokussiert als Claude Code
- Abhängigkeit von Google-Infrastruktur
- Nicht lokal ausführbar
- Kein MCP-Support
- Kein Subagenten-System
4. OpenAI Codex CLI
OpenAI-Ökosystem mit GPT-4o und o3
Modell
GPT-4o / o3
Open Source
CLI ist Open Source, Modell ist proprietär
Lokal möglich
Nein — ausschließlich über OpenAI API
Preis
OpenAI API: $5–15 / 1M Tokens
Protocol
Standard API
Context Window
128K Tokens
Stärken
- Breites OpenAI-Ökosystem und Community
- GPT-4o-Qualität für Code-Aufgaben
- Gute Integration mit bestehenden OpenAI-Workflows
Schwächen
- Nicht lokal ausführbar
- Abhängigkeit von OpenAI
- Teuer bei hohem Volumen
- Kein MCP-Support
- Kein Subagenten-System
- Kleinstes Context Window (128K)
Feature-Matrix
| Feature | Claude Code | Mistral Vibe | Gemini CLI | Codex CLI |
|---|---|---|---|---|
| Lokal möglich | Nein | Ja (24B) | Nein | Nein |
| Open Source Modell | Nein | Ja (MIT/Apache) | Nein | Nein |
| Subagenten | Ja | Nein | Nein | Nein |
| MCP Support | Ja | Nein (ACP) | Nein | Nein |
| Plugin System | Ja | Nein | Nein | Nein |
| Context Window | 200K–1M | ~128K | 1M+ | 128K |
| Hooks / Rules | Ja | Nein | Nein | Nein |
| Git Worktrees | Ja | Nein | Nein | Nein |
| DSGVO-lokal | Nein | Ja | Nein | Nein |
| Free Tier | Nein | Lokal = kostenlos | Ja | Nein |
Kosten-Vergleich (geschätzt bei 1.000 Anfragen/Tag)
| Agent | Kosten / Monat | Lokal möglich | Anmerkung |
|---|---|---|---|
| Claude Code | ~$150–500 | Nein | Opus teurer, Sonnet günstiger |
| Mistral Vibe (API) | ~$50–150 | — | Via Le Chat oder Mistral API |
| Mistral Vibe (Lokal) | ~49 EUR (Strom) | Ja | Einmalige Hardware-Kosten nicht eingerechnet |
| Gemini CLI | ~$0–100 | Nein | Free Tier für geringe Nutzung |
| Codex CLI | ~$150–500 | Nein | GPT-4o und o3 ähnlich teuer |
Praxis-Test: Mistral Vibe v2.5.0
Wir haben Mistral Vibe v2.5.0 auf dieser Wiki getestet, um einen direkten Vergleich mit unserem Haupt-Tool Claude Code zu haben.
Einfache Aufgabe (Dateien zählen)
Korrekt und schnell erledigt. Shell-Tool funktioniert zuverlässig.
Komplexe Aufgabe (Code-Analyse)
Turn-Limit bei 5 Turns erreicht. Der Agent konnte die Aufgabe nicht vollständig abschließen. Claude Code hat die gleiche Aufgabe in einer Session erledigt.
Fazit: Mistral Vibe funktioniert zuverlässig für einfache bis mittlere Tasks. Für komplexe, mehrstufige Workflows mit vielen Datei-Interaktionen ist Claude Code deutlich überlegen — sowohl in der Reasoning-Qualität als auch in der Tool-Vielfalt und dem fehlenden Turn-Limit.
Für wen eignet sich was?
Enterprise mit Budget
Claude Code
Beste Reasoning-Qualität, Subagenten für parallele Aufgaben, MCP-Integration für Tool-Anbindung. Wenn Qualität wichtiger ist als Kosten.
DSGVO-kritisch / Self-Hosted
Mistral Vibe (lokal)
Einzige Option wenn keine Daten das Unternehmen verlassen dürfen. Devstral Small 2 (24B) auf RTX 3090 genügt. Open Source, MIT-Lizenz.
Budget-bewusst
Gemini CLI
Kostenloses Free Tier zum Ausprobieren. 1M Context Window für große Codebases. Gut zum Einstieg ohne finanzielle Verpflichtung.
OpenAI-Ökosystem
Codex CLI
Nahtlose Integration wenn bereits OpenAI-APIs und GPT-4o im Einsatz. Vertrautes Ökosystem, bewährte Modell-Qualität.
Unsere Empfehlung
Ehrliche Einordnung
- Wir sind nicht neutral: Dieser Artikel wird mit Claude Code geschrieben. Wir nutzen es täglich und kennen es am besten. Die Stärken sind aus erster Hand, die Schwächen ebenso.
- Kein Agent ist perfekt: Claude Code ist teuer und nicht lokal. Mistral Vibe ist weniger leistungsfähig bei komplexen Aufgaben. Gemini CLI ist weniger Code-fokussiert. Codex CLI hat das kleinste Context Window.
- Der Markt bewegt sich schnell: Dieser Vergleich spiegelt den Stand März 2026 wider. Alle vier Anbieter veröffentlichen regelmäßig Updates.
Protocol-Vergleich: MCP vs. ACP
| Aspekt | MCP (Model Context Protocol) | ACP (Agent Communication Protocol) |
|---|---|---|
| Entwickler | Anthropic | Mistral AI |
| Fokus | Tool-Integration (Dateisystem, APIs, DBs) | Agent-zu-Agent-Kommunikation |
| Ökosystem | Groß (Notion, Playwright, Docker, etc.) | Wachsend, noch jung |
| Kompatibilität | Breit (Claude, Cursor, Windsurf, etc.) | Primär Mistral Vibe |
| Open Standard | Ja (offene Spezifikation) | Ja (offene Spezifikation) |
Quellen
- Claude Code Dokumentation — Offizielle Anthropic-Dokumentation
- Claude Code GitHub — Open Source CLI Repository
- Mistral Vibe Dokumentation — Offizielle Mistral AI-Dokumentation
- Devstral Small 2 auf Hugging Face — 24B-Modell für lokale Ausführung
- Gemini CLI GitHub — Google Gemini CLI (98k+ Stars)
- OpenAI Codex CLI GitHub — OpenAI Codex CLI Repository
- Model Context Protocol (MCP) — Offizielle MCP-Spezifikation
- Agent Communication Protocol (ACP) — Offizielle ACP-Spezifikation
Weiterfuehrende Artikel: AI Tools Datenbank · MCP Server · Agent Orchestration
Fuer die Umsetzung gibt es Ressourcen auf ai-engineering.at.
War dieser Artikel hilfreich?
Nächster Schritt: Workflows sauber in Betrieb bringen
Nutze bewährte n8n-Patterns, Templates und Integrationen für Workflows, die lokal, dokumentiert und auditierbar bleiben.
- Lokal und self-hosted gedacht
- Dokumentiert und auditierbar
- Aus eigener Runtime entwickelt
- Made in Austria