Zum Inhalt springen
>_<
AI EngineeringWiki
Terminal-Grundlagen für AI-Entwickler — die 10 Befehle die du wirklich brauchst

Terminal-Grundlagen für AI-Entwickler — die 10 Befehle die du wirklich brauchst

Kein Informatikstudium nötig. Diese 10 Terminal-Befehle reichen um deinen eigenen AI-Stack zu starten.

AI Engineering4 Min. Lesezeit
TerminalGrundlagenCLIAnfängerSetup

Terminal-Grundlagen für AI-Entwickler — die 10 Befehle die du wirklich brauchst

Terminal und Kommandozeile fuer KI-Entwicklung
Kategorie Befehle Einsatzgebiet
Navigation cd, ls, pwd Bewegen, Dateien finden
Netzwerk curl, ssh API-Tests, Remote-Zugriff
Docker docker ps, docker logs Container-Verwaltung
Entwicklung git pull, cat, grep Code und Config verwalten
Pakete pip / uv Python-Abhängigkeiten installieren

10 Befehle. Das ist alles was zwischen dir und deinem ersten lokalen LLM steht.

Kein Informatikstudium, kein Linux-Expertenwissen. Wer Ollama starten, Docker-Container prüfen und Modelle herunterladen will, braucht genau diese 10 Befehle — mehr nicht.

Warum überhaupt Terminal?

Weil AI-Tools fast alle über die Kommandozeile bedient werden. Docker läuft im Terminal. Python-Scripts starten dort. SSH-Verbindungen zu deinem Server (falls du später auf eigene Hardware ausweichst) gehen über Terminal. Wer das umgeht, verbringt die Hälfte der Zeit damit, GUI-Wrapper zu verstehen die sowieso nur das Terminal aufrufen. Direkt ist schneller.

Auf Windows empfehlen wir Windows Terminal + WSL2 — damit hast du eine vollwertige Linux-Umgebung, ohne Dual-Boot.

Die 10 Befehle

Befehl Was er tut Beispiel
cd Verzeichnis wechseln cd ~/projects/ai-stack
ls / dir Inhalt des Verzeichnisses anzeigen (Linux/Mac: ls, Windows: dir) ls -la
pwd Aktuellen Pfad anzeigen (Print Working Directory) pwd/home/joe/projects
curl HTTP-Requests senden — unverzichtbar für API-Tests curl http://localhost:11434/api/tags
ssh Sicherer Zugriff auf remote Server ssh [email protected]
docker ps Laufende Container anzeigen docker ps --format "table {{.Names}}\t{{.Status}}"
git pull Neueste Version aus dem Repository holen git pull origin main
cat Datei-Inhalt direkt ausgeben cat .env
grep Text in Dateien oder Output suchen docker logs ollama | grep "error"
pip / uv Python-Pakete installieren (uv ist deutlich schneller) uv pip install ollama

Befehle in der Praxis — echte Beispiele

Jeder Befehl hier zeigt mindestens zwei reale Anwendungsfälle, die dir beim Betrieb eines lokalen AI-Stacks begegnen werden.

cd — zu deinem Projekt navigieren:

cd ~/projects/ai-stack          # zum AI-Projekt springen
cd ..                           # eine Ebene hoch
cd -                            # zurück zum vorherigen Verzeichnis

ls — sehen was in einem Verzeichnis liegt:

ls -la                          # alle Dateien inkl. versteckte, mit Details
ls -lh ~/.ollama/models/        # Modelldateien mit lesbaren Größenangaben
ls *.yml                        # nur YAML-Dateien auflisten (z.B. docker-compose)

curl — APIs direkt aus dem Terminal testen:

curl http://localhost:11434/api/tags                    # Ollama-Modelle auflisten
curl -X POST http://localhost:11434/api/generate \
  -d '{"model":"qwen3.5:4b","prompt":"Hallo"}'         # einen Prompt senden
curl -s http://localhost:3000/health | python -m json.tool  # Open WebUI Health prüfen

grep — das Wichtige im Rauschen finden:

docker logs ollama | grep "error"              # Fehler in Ollama-Logs finden
grep -r "OLLAMA_HOST" ~/projects/              # Config-Referenzen im Projekt suchen
docker logs open-webui | grep -i "warning"     # Warnungen suchen (Groß/Klein egal)

docker ps — wissen was läuft:

docker ps                                              # laufende Container
docker ps -a                                           # alle Container inkl. gestoppte
docker ps --format "table {{.Names}}\t{{.Status}}\t{{.Ports}}"  # saubere Übersicht

Drei Dinge die sofort helfen

Tab-Completion nutzen. Fang mit cd pro an und drück Tab — das Terminal vervollständigt projects/ automatisch. Spart Tipperei und verhindert Tippfehler.

Pfeiltaste hoch. Der letzte Befehl kommt mit ↑ zurück. Kein nochmal eintippen. Drück Strg+R um durch deine Befehlshistorie zu suchen.

| (Pipe) verbindet Befehle. docker logs ollama | grep error gibt nur Zeilen mit "error" aus — statt durch hunderte Logzeilen zu scrollen. Du kannst mehrere Pipes verketten: docker logs ollama | grep error | tail -5 zeigt nur die letzten 5 Fehlerzeilen.

Windows-Nutzer: WSL2 einrichten lohnt sich

Ollama läuft nativ auf Windows. Aber viele Tools im AI-Ökosystem sind für Linux gebaut. WSL2 gibt dir eine vollwertige Ubuntu-Umgebung direkt in Windows — ohne VM, ohne Dual-Boot.

# WSL2 installieren (PowerShell als Admin)
wsl --install

Nach dem Neustart hast du Ubuntu in Windows Terminal verfügbar. Alle 10 Befehle oben funktionieren dann identisch. Details: WSL2 Dokumentation.

Wer tiefer einsteigen will: Die Linux Foundation hat kostenlose Einführungsmaterialien für die Kommandozeile.

Kurz-Test: Läuft dein Terminal?

Öffne Terminal (Windows Terminal, macOS Terminal, oder Linux-Shell) und tippe:

curl --version

Wenn eine Versionsnummer erscheint — perfekt. Wenn nicht, ist curl nicht installiert. Unter Windows: winget install curl.curl. Unter Ubuntu/WSL2: sudo apt install curl.


Terminal läuft? Dann kommt der eigentliche Schritt: Ollama installieren und das erste Modell lokal starten.

Weiter zu Stufe 3: Ollama installieren in 5 Minuten →

Oder direkt zum kompletten Setup-Guide: Das Local AI Playbook P1 (EUR 49) nimmt dich von Terminal bis zu einem produktionsfähigen Stack mit Browser-Interface, API-Zugang und fertig konfigurierten Docker-Containern.

Artikel teilen

Weiterfuehrende Artikel: Was ist ein LLM? · AI Tools Datenbank · Lernpfad

Fuer die Umsetzung gibt es Ressourcen auf ai-engineering.at.

Nächster Schritt: vom Wissen in die Umsetzung

Wenn du mehr willst als Theorie: Setups, Workflows und Vorlagen aus dem echten Betrieb für Teams, die lokale und dokumentierte AI-Systeme wollen.

Warum AI Engineering
  • Lokal und self-hosted gedacht
  • Dokumentiert und auditierbar
  • Aus eigener Runtime entwickelt
  • Made in Austria
Kein Ersatz für Rechtsberatung.