Temperature¶
Temperature ist ein Parameter, der die "Kreativität" bzw. Zufälligkeit der LLM-Outputs kontrolliert.
Wie funktioniert es?¶
Temperature skaliert die Logits vor dem Softmax:
\[
P(token_i) = \frac{e^{z_i / T}}{\sum_j e^{z_j / T}}
\]
- \(T = 1.0\): Normale Verteilung
- \(T < 1.0\): Schärfer, deterministischer
- \(T > 1.0\): Flacher, zufälliger
Visualisierung¶
T = 0.1: ████████████░░░░ "Das" (95%)
░░░░░░░░░░░░░░░░ andere Tokens (5%)
T = 1.0: ████████░░░░░░░░ "Das" (50%)
████░░░░░░░░░░░░ "Ein" (25%)
██░░░░░░░░░░░░░░ "Die" (15%)
T = 2.0: ███░░░░░░░░░░░░░ "Das" (20%)
███░░░░░░░░░░░░░ "Ein" (18%)
██░░░░░░░░░░░░░░ "Die" (15%)
...gleichmäßiger verteilt
Empfehlungen¶
| Use Case | Temperature |
|---|---|
| Code, Fakten | 0.0 - 0.3 |
| Allgemein | 0.7 |
| Kreatives Schreiben | 0.9 - 1.2 |
| Brainstorming | 1.0 - 1.5 |
Verwandte Parameter¶
- Top-K: Nur die K wahrscheinlichsten Tokens betrachten
- Top-P (Nucleus): Tokens bis kumulativ P Wahrscheinlichkeit
Siehe auch¶
- Inferenz – Wo Temperature eingesetzt wird
- LLM – Was sampelt