Zum Inhalt springen
>_<
AI EngineeringWiki

Tools

CLI Coding Agents im Vergleich

Claude Code, Mistral Vibe, Gemini CLI und OpenAI Codex CLI — ehrlicher Vergleich mit Feature-Matrix, Preisen, DSGVO-Bewertung und Praxis-Erfahrung.

Lesezeit: 15 minZuletzt aktualisiert: März 2026v1.0 — März 2026
📋 Überblick
Vier CLI Coding Agents im direkten Vergleich: Claude Code liefert die beste Reasoning-Qualität mit Subagenten und MCP-Integration. Mistral Vibe ist der einzige Agent der vollständig lokal läuft (DSGVO-konform, 24B-Modell auf RTX 3090). Gemini CLI bietet ein kostenloses Free Tier mit 1M Context Window. Codex CLI integriert sich ins OpenAI-Ökosystem. Keiner ist perfekt — die Wahl hängt vom Anwendungsfall ab.
Diagramm wird geladen...

CLI Coding Agents sind Terminal-basierte AI-Assistenten, die direkt in deinem Dateisystem arbeiten: Code lesen, schreiben, editieren, Shell-Befehle ausführen und Git-Operationen durchführen. Im Gegensatz zu Chat-Interfaces wie ChatGPT oder Claude.ai arbeiten sie direkt in deinem Projekt-Kontext und können komplexe mehrstufige Aufgaben autonom erledigen.

Dieser Vergleich basiert auf unserer täglichen Praxis-Erfahrung. Wir nutzen Claude Code als Haupt-Tool und haben die Alternativen systematisch getestet. Die Bewertung ist ehrlich: Wo andere besser sind, sagen wir das.

Die 4 Agents im Detail

1. Claude Code (Anthropic)

CLI Agent mit dem stärksten Reasoning

Unser Haupt-Tool

Modell

Claude Opus 4.6 / Sonnet 4.6

Open Source

CLI ist Open Source, Modell ist proprietär

Lokal möglich

Nein — ausschließlich über Anthropic API

Preis

Anthropic API: $3–15 / 1M Tokens

Protocol

MCP (Model Context Protocol)

Context Window

200K–1M Tokens

Tools

ReadWriteEditBashGrepGlobAgentWebFetchWebSearchNotebookEdit

Stärken

  • Bestes Reasoning aller getesteten Agents
  • Subagenten für parallele Aufgaben
  • MCP-Integration (Notion, Playwright, Docker, etc.)
  • Hooks für automatische Qualitätssicherung
  • Skills und Plugin-System
  • Git Worktrees für isolierte Branches
  • Plan Mode für komplexe Aufgaben

Schwächen

  • Nicht lokal ausführbar — alle Daten gehen an Anthropic API
  • Teuer bei hohem Volumen ($150–500/Monat bei intensiver Nutzung)
  • Abhängigkeit von Anthropic als einzigem Anbieter
  • Kein Free Tier für die API

Besonderheiten

Subagenten können parallel arbeiten und komplexe Aufgaben aufteilen. Hooks ermöglichen automatische Regeln (z.B. "nie löschen ohne Bestätigung"). CLAUDE.md-Dateien definieren projektspezifisches Verhalten. MCP-Server erweitern die Fähigkeiten um externe Tools (Datenbanken, Browser, APIs).

2. Mistral Vibe (Mistral AI)

Der einzige Agent der vollständig lokal läuft

Open Source / Lokal

Modell

Devstral 2 (123B) / Devstral Small 2 (24B)

Open Source

Ja — MIT / Apache 2.0

Lokal möglich

Ja — Devstral Small 2 (24B) läuft auf RTX 3090

Preis

Le Chat Plans oder Self-hosted kostenlos

Protocol

ACP (Agent Communication Protocol)

Context Window

~128K Tokens

Tools

FileShellGrepGit

Stärken

  • Vollständig Open Source (MIT / Apache 2.0)
  • Lokal ausführbar — keine Daten verlassen das Unternehmen
  • 24B-Modell läuft auf Consumer-GPU (RTX 3090)
  • DSGVO-konform ohne zusätzliche Maßnahmen
  • Eigenes Protocol (ACP) für Agent-Kommunikation

Schwächen

  • Weniger Tool-Vielfalt als Claude Code (4 vs. 10+ Tools)
  • Jüngeres Ökosystem — weniger Plugins und Integrationen
  • Reasoning-Qualität unter Claude Opus 4.6
  • Kein MCP-Support (eigenes ACP-Protocol)
  • Turn-Limit bei komplexen Aufgaben (5 Turns im Test)

Getestete Version

v2.5.0

3. Gemini CLI (Google)

Größtes Context Window und kostenloses Free Tier

Free Tier

Modell

Gemini 2.5 Pro / Flash

Open Source

CLI ist Open Source, Modell ist proprietär

Lokal möglich

Nein — ausschließlich über Google AI API

Preis

Google AI API (Free Tier vorhanden)

Protocol

Standard API

Context Window

1M+ Tokens

Stärken

  • 1M+ Context Window — größtes aller getesteten Agents
  • Kostenloses Free Tier für den Einstieg
  • Multimodale Fähigkeiten (Bilder, Code, Text)
  • 98k+ GitHub Stars — große Community

Schwächen

  • Weniger Code-fokussiert als Claude Code
  • Abhängigkeit von Google-Infrastruktur
  • Nicht lokal ausführbar
  • Kein MCP-Support
  • Kein Subagenten-System

4. OpenAI Codex CLI

OpenAI-Ökosystem mit GPT-4o und o3

Modell

GPT-4o / o3

Open Source

CLI ist Open Source, Modell ist proprietär

Lokal möglich

Nein — ausschließlich über OpenAI API

Preis

OpenAI API: $5–15 / 1M Tokens

Protocol

Standard API

Context Window

128K Tokens

Stärken

  • Breites OpenAI-Ökosystem und Community
  • GPT-4o-Qualität für Code-Aufgaben
  • Gute Integration mit bestehenden OpenAI-Workflows

Schwächen

  • Nicht lokal ausführbar
  • Abhängigkeit von OpenAI
  • Teuer bei hohem Volumen
  • Kein MCP-Support
  • Kein Subagenten-System
  • Kleinstes Context Window (128K)

Feature-Matrix

FeatureClaude CodeMistral VibeGemini CLICodex CLI
Lokal möglichNeinJa (24B)NeinNein
Open Source ModellNeinJa (MIT/Apache)NeinNein
SubagentenJaNeinNeinNein
MCP SupportJaNein (ACP)NeinNein
Plugin SystemJaNeinNeinNein
Context Window200K–1M~128K1M+128K
Hooks / RulesJaNeinNeinNein
Git WorktreesJaNeinNeinNein
DSGVO-lokalNeinJaNeinNein
Free TierNeinLokal = kostenlosJaNein

Kosten-Vergleich (geschätzt bei 1.000 Anfragen/Tag)

⚠️ Schätzwerte
Die Kosten sind Schätzungen basierend auf durchschnittlicher Token-Nutzung pro Anfrage. Tatsächliche Kosten variieren stark je nach Prompt-Länge, Kontext-Größe und Aufgaben-Komplexität.
AgentKosten / MonatLokal möglichAnmerkung
Claude Code~$150–500NeinOpus teurer, Sonnet günstiger
Mistral Vibe (API)~$50–150Via Le Chat oder Mistral API
Mistral Vibe (Lokal)~49 EUR (Strom)JaEinmalige Hardware-Kosten nicht eingerechnet
Gemini CLI~$0–100NeinFree Tier für geringe Nutzung
Codex CLI~$150–500NeinGPT-4o und o3 ähnlich teuer

Praxis-Test: Mistral Vibe v2.5.0

Wir haben Mistral Vibe v2.5.0 auf dieser Wiki getestet, um einen direkten Vergleich mit unserem Haupt-Tool Claude Code zu haben.

+

Einfache Aufgabe (Dateien zählen)

Korrekt und schnell erledigt. Shell-Tool funktioniert zuverlässig.

Komplexe Aufgabe (Code-Analyse)

Turn-Limit bei 5 Turns erreicht. Der Agent konnte die Aufgabe nicht vollständig abschließen. Claude Code hat die gleiche Aufgabe in einer Session erledigt.

Fazit: Mistral Vibe funktioniert zuverlässig für einfache bis mittlere Tasks. Für komplexe, mehrstufige Workflows mit vielen Datei-Interaktionen ist Claude Code deutlich überlegen — sowohl in der Reasoning-Qualität als auch in der Tool-Vielfalt und dem fehlenden Turn-Limit.

Für wen eignet sich was?

Enterprise mit Budget

Claude Code

Beste Reasoning-Qualität, Subagenten für parallele Aufgaben, MCP-Integration für Tool-Anbindung. Wenn Qualität wichtiger ist als Kosten.

DSGVO-kritisch / Self-Hosted

Mistral Vibe (lokal)

Einzige Option wenn keine Daten das Unternehmen verlassen dürfen. Devstral Small 2 (24B) auf RTX 3090 genügt. Open Source, MIT-Lizenz.

Budget-bewusst

Gemini CLI

Kostenloses Free Tier zum Ausprobieren. 1M Context Window für große Codebases. Gut zum Einstieg ohne finanzielle Verpflichtung.

OpenAI-Ökosystem

Codex CLI

Nahtlose Integration wenn bereits OpenAI-APIs und GPT-4o im Einsatz. Vertrautes Ökosystem, bewährte Modell-Qualität.

Unsere Empfehlung

💡 Praxis-Empfehlung
Für AI Engineering nutzen wir Claude Code als Haupttool — wegen der Subagenten-Architektur, MCP-Integration und Reasoning-Qualität. Für DSGVO-kritische Umgebungen, in denen KEINE Daten das Unternehmen verlassen dürfen, ist Mistral Vibe mit Devstral Small 2 (24B, lokal auf RTX 3090) die beste Alternative. Die Kombination aus beiden deckt 95% aller Anwendungsfälle ab.

Ehrliche Einordnung

  • Wir sind nicht neutral: Dieser Artikel wird mit Claude Code geschrieben. Wir nutzen es täglich und kennen es am besten. Die Stärken sind aus erster Hand, die Schwächen ebenso.
  • Kein Agent ist perfekt: Claude Code ist teuer und nicht lokal. Mistral Vibe ist weniger leistungsfähig bei komplexen Aufgaben. Gemini CLI ist weniger Code-fokussiert. Codex CLI hat das kleinste Context Window.
  • Der Markt bewegt sich schnell: Dieser Vergleich spiegelt den Stand März 2026 wider. Alle vier Anbieter veröffentlichen regelmäßig Updates.

Protocol-Vergleich: MCP vs. ACP

AspektMCP (Model Context Protocol)ACP (Agent Communication Protocol)
EntwicklerAnthropicMistral AI
FokusTool-Integration (Dateisystem, APIs, DBs)Agent-zu-Agent-Kommunikation
ÖkosystemGroß (Notion, Playwright, Docker, etc.)Wachsend, noch jung
KompatibilitätBreit (Claude, Cursor, Windsurf, etc.)Primär Mistral Vibe
Open StandardJa (offene Spezifikation)Ja (offene Spezifikation)

Quellen

Weiterfuehrende Artikel: AI Tools Datenbank · MCP Server · Agent Orchestration

Fuer die Umsetzung gibt es Ressourcen auf ai-engineering.at.

War dieser Artikel hilfreich?

Nächster Schritt: Workflows sauber in Betrieb bringen

Nutze bewährte n8n-Patterns, Templates und Integrationen für Workflows, die lokal, dokumentiert und auditierbar bleiben.

Warum AI Engineering
  • Lokal und self-hosted gedacht
  • Dokumentiert und auditierbar
  • Aus eigener Runtime entwickelt
  • Made in Austria
Kein Ersatz für Rechtsberatung.