Zum Inhalt springen
>_<
AI EngineeringWiki
Was ist ein Large Language Model? Erklärt ohne Buzzwords

Was ist ein Large Language Model? Erklärt ohne Buzzwords

LLM, GPT, Transformer — was steckt wirklich dahinter? Eine ehrliche Erklärung ohne Marketing-Sprache.

AI Engineering7 Min. Lesezeit
GrundlagenLLMAI BasicsAnfänger

Was ist ein Large Language Model? Erklärt ohne Buzzwords

Neuronales Netzwerk und KI-Visualisierung
┌─────────────────────────────────────────────────────────┐
│                 Transformer-Architektur                  │
│                                                         │
│   Input: "Die Hauptstadt von Österreich ist"            │
│       │                                                 │
│       ▼                                                 │
│   ┌──────────────┐                                      │
│   │  Tokenizer   │  Text → Token-IDs                    │
│   └──────┬───────┘                                      │
│          ▼                                              │
│   ┌──────────────┐                                      │
│   │  Embedding   │  Token-IDs → Vektoren                │
│   └──────┬───────┘                                      │
│          ▼                                              │
│   ┌──────────────┐  ×N Schichten (z.B. 32 bei 7B)       │
│   │  Attention   │  "Welche Tokens sind relevant?"       │
│   │  + FFN       │  Gewichtete Verknüpfungen             │
│   └──────┬───────┘                                      │
│          ▼                                              │
│   ┌──────────────┐                                      │
│   │  Output Head │  Wahrscheinlichkeiten für             │
│   └──────┬───────┘  nächstes Token                      │
│          ▼                                              │
│   Output: "Wien" (p=0.97)                               │
│                                                         │
│   Parameter = Gewichte in Attention + FFN Schichten      │
│   7B = 7 Milliarden Gewichte ≈ 4-8 GB VRAM              │
└─────────────────────────────────────────────────────────┘

ChatGPT benutzt es. Karpathy baut es. Die meisten können nicht erklären was es ist.

Das ist kein Vorwurf — die meisten Erklärungen sind entweder zu simpel ("es denkt wie ein Mensch") oder zu abstrakt ("es ist ein stochastischer Papagei"). Beides hilft nicht weiter.

Hier ist was wirklich passiert.

Das Grundprinzip: Token-Prediction

Ein Large Language Model macht genau eine Sache: Es sagt vorher, welches Wort (genauer: welcher Token) als nächstes kommt.

Das klingt trivial. Ist es nicht.

Wenn du "Die Hauptstadt von Österreich ist" eingibst, hat ein gut trainiertes Modell Millionen ähnliche Texte gesehen und weiß: Das nächste Token ist mit sehr hoher Wahrscheinlichkeit "Wien". Wenn du aber "Erklär mir Quantenmechanik so wie ich 5 bin" eingibst, muss das Modell aus seinen Trainingsdaten eine Antwort zusammenbauen, die gleichzeitig kindgerecht und korrekt ist.

Das ist keine Suche. Das ist Kompression und Rekonstruktion von Wissen.

Token sind übrigens keine Wörter — sie sind Zeichenfolgen. "Österreich" kann ein einzelner Token sein. "unvorhergesehen" werden vielleicht in drei Tokens aufgeteilt. GPT-4 nutzt etwa 100.000 verschiedene Tokens, Llama-3-Modelle ähnlich viele.

Kein Suchindex, keine Datenbank

Hier liegt das größte Missverständnis: Ein LLM ist keine Suchmaschine und keine Datenbank.

Google findet Dokumente, die existieren. Ein LLM generiert Antworten, die so noch nie existiert haben — aus komprimiertem Musterwissen. Das ist der Grund, warum ein Modell auf eine Frage über ein Ereignis von gestern keine sinnvolle Antwort geben kann: Es hat keine Verbindung zum Internet und kein aktuelles Wissen.

Das Wissen eines Modells ist eingefroren zum Zeitpunkt des Trainings. Das nennt sich Knowledge Cutoff.

Warum Modelle manchmal lügen

Halluzination ist kein Bug, der noch gefixt wird. Es ist eine direkte Folge des Funktionsprinzips.

Das Modell hat kein Wahrheitsmodul. Es hat keine Möglichkeit zu "wissen", ob eine Aussage korrekt ist — es kann nur bewerten, wie wahrscheinlich eine Folge von Tokens gegeben dem Kontext ist. Wenn eine falsche Aussage in den Trainingsdaten häufig ähnlich wie eine wahre Aussage formuliert war, wird das Modell sie mit ähnlicher Konfidenz ausgeben.

Das ist der Grund, warum man LLM-Outputs in kritischen Bereichen immer verifiziert.

Was "Parameter" bedeutet

Kurz und direkt: Parameter sind die Zahlen, die beim Training angepasst wurden. Ein Modell mit 7 Milliarden Parametern hat 7 Milliarden Gewichte in einem neuronalen Netz. Mehr Parameter bedeutet in der Regel mehr Kapazität für Wissen — aber auch mehr RAM-Bedarf und langsamere Inferenz.

Ein 7B-Modell braucht etwa 4–8 GB VRAM, ein 27B-Modell etwa 16–20 GB. Das ist relevant wenn du lokal arbeitest.

Die Architektur dahinter

Alle modernen LLMs basieren auf der Transformer-Architektur, die 2017 von Google Brain vorgestellt wurde. Das Paper heißt "Attention Is All You Need" — und der Titel ist Programm. Quelle: Vaswani et al., 2017

Die zentrale Idee: Attention erlaubt dem Modell, beim Verarbeiten eines Tokens gleichzeitig auf alle anderen Tokens im Kontext zu achten — gewichtet nach Relevanz. Das macht Transformer so viel leistungsfähiger als frühere Architekturen.

Andrej Karpathy hat das in seinem Blog schon früh als überraschend effektiv beschrieben — zuerst für RNNs, später für Transformer. Sein Artikel "The Unreasonable Effectiveness of Recurrent Neural Networks" ist immer noch lesenswert als Einstieg in das Thema. Quelle: karpathy.github.io

Wer tiefer einsteigen will: Karpathys llm.c Projekt implementiert einen GPT-2-ähnlichen Transformer in 1.000 Zeilen C. Keine Abstraktionen, kein Framework. Quelle: github.com/karpathy/llm.c

Was ein LLM NICHT kann

So beeindruckend die Fähigkeiten sind — LLMs haben fundamentale Grenzen, die kein Training und keine Skalierung vollständig lösen wird:

Halluzinationen sind systemisch. Ein LLM kann nicht zwischen "wahr" und "plausibel klingend" unterscheiden. Es generiert die wahrscheinlichste Tokenfolge, nicht die korrekteste. Das bedeutet: Es erfindet Quellen, Statistiken, Personen und Ereignisse — mit der gleichen Überzeugung wie bei korrekten Aussagen. In medizinischen, juristischen oder finanziellen Kontexten ist das ein Dealbreaker ohne menschliche Kontrolle.

Kein echtes Verstehen. Ein LLM versteht Sprache nicht im menschlichen Sinn. Es erkennt statistische Muster in Text. Es kann einen Witz erklären, weil es Millionen Erklärungen von Witzen gesehen hat — nicht weil es Humor versteht. Das ist ein wichtiger Unterschied, weil er bestimmt, wo man sich auf die Ausgabe verlassen kann und wo nicht.

Kontext-Limits. Jedes Modell hat ein Kontextfenster — die maximale Anzahl an Tokens, die es gleichzeitig verarbeiten kann. Bei Llama 3.2 sind das 128.000 Tokens, bei kleineren Modellen oft 4.096 oder 8.192. Wenn dein Dokument das Kontextfenster übersteigt, wird der Anfang einfach abgeschnitten. Das Modell "vergisst" nicht — es hat die Information nie gesehen.

Kein Zugang zur Realität. Ein LLM hat keinen Internetzugang, keine Datenbank-Anbindung und kein Wissen über Ereignisse nach dem Trainings-Cutoff. Wenn du fragst "Was ist gestern passiert?", rät es — oder gibt zu, dass es das nicht weiß (wenn es gut trainiert wurde).

Mathematik und logisches Reasoning. LLMs sind schwach in Arithmetik, formaler Logik und mehrstufigen Schlussfolgerungen. Sie können 17 × 24 manchmal falsch berechnen, obwohl sie eloquent über Zahlentheorie schreiben. Das liegt daran, dass Rechnen kein Pattern-Matching ist.

Welches Modell für welchen Zweck?

Aufgabe Empfohlenes Modell Parameter VRAM-Bedarf Anmerkung
Schnelle Entwürfe, Brainstorming Llama 3.2 3B 3B ~3 GB Schnell, gut für einfache Aufgaben
E-Mail-Zusammenfassungen, Klassifikation Qwen 2.5 7B 7B ~5 GB Gutes Preis-Leistungs-Verhältnis für VRAM
Codegenerierung Qwen 2.5 Coder 14B 14B ~10 GB Spezialisiert auf Code-Aufgaben
Technische Dokumentation Qwen 2.5 14B 14B ~10 GB Solide für längere, strukturierte Texte
Komplexe Analyse, längere Texte Qwen 2.5 27B 27B ~18 GB Braucht RTX 3090 oder besser
Mehrsprachige Aufgaben Mistral Small 24B 24B ~16 GB Stark in europäischen Sprachen
Einfache Chat-Aufgaben, niedrige Hardware Phi-3.5 Mini 3.8B 3.8B ~3 GB Microsofts kompaktes Modell

Die Werte sind Richtwerte für quantisierte Versionen (Q4_K_M). Nicht-quantisierte Modelle brauchen etwa doppelt so viel VRAM.

LLMs lokal betreiben

Der einfachste Weg, ein LLM lokal zu betreiben, ist Ollama. Ein einziger Befehl reicht:

ollama run qwen2.5:7b

Ollama kümmert sich um den Download, die Quantisierung und das GPU-Management. Du brauchst:

  • Minimum: 8 GB RAM, eine halbwegs aktuelle CPU — damit laufen 3B-Modelle auf CPU (langsam, aber funktional)
  • Empfohlen: 16 GB RAM, eine GPU mit 6+ GB VRAM (z.B. RTX 2060, RTX 3060) — damit laufen 7B-Modelle flüssig
  • Optimal: 24+ GB VRAM (RTX 3090, RTX 4090) — damit laufen 27B-Modelle in guter Geschwindigkeit

Wenn du keine dedizierte GPU hast: Ollama kann Modelle auch auf der CPU ausführen. Ein 3B-Modell auf einem modernen Laptop (M1/M2 Mac oder aktueller Intel/AMD) antwortet in etwa 2-5 Sekunden pro Absatz. Nicht schnell, aber für viele Aufgaben ausreichend.

Mehr dazu in Stufe 3: Ollama installieren dieser Serie.

Was das für dich bedeutet

LLMs sind mächtige Werkzeuge für Textzusammenfassung, Klassifikation, Codegenerierung, Übersetzung und Extraktion. Sie sind keine allwissenden Assistenten und kein Ersatz für Expertenwissen.

Das Wichtige: Du brauchst nicht OpenAI dafür. Modelle wie Qwen, Llama oder Mistral laufen lokal — auf deiner Hardware, ohne API-Kosten, ohne dass ein einziges Byte das Netzwerk verlässt.


Jetzt weißt du was ein LLM ist. Der nächste Schritt: warum du es lokal betreiben solltest — und was das für DSGVO und EU AI Act bedeutet.

Stufe 1: Warum du kein ChatGPT im Unternehmen nutzen solltest

Artikel teilen

Weiterfuehrende Artikel: Was ist ein LLM? · AI Tools Datenbank · Lernpfad

Fuer die Umsetzung gibt es Ressourcen auf ai-engineering.at.

Nächster Schritt: vom Wissen in die Umsetzung

Wenn du mehr willst als Theorie: Setups, Workflows und Vorlagen aus dem echten Betrieb für Teams, die lokale und dokumentierte AI-Systeme wollen.

Warum AI Engineering
  • Lokal und self-hosted gedacht
  • Dokumentiert und auditierbar
  • Aus eigener Runtime entwickelt
  • Made in Austria
Kein Ersatz für Rechtsberatung.