Zum Inhalt

Temperature

Temperature ist ein Parameter, der die "Kreativität" bzw. Zufälligkeit der LLM-Outputs kontrolliert.


Wie funktioniert es?

Temperature skaliert die Logits vor dem Softmax:

\[ P(token_i) = \frac{e^{z_i / T}}{\sum_j e^{z_j / T}} \]
  • \(T = 1.0\): Normale Verteilung
  • \(T < 1.0\): Schärfer, deterministischer
  • \(T > 1.0\): Flacher, zufälliger

Visualisierung

T = 0.1:  ████████████░░░░  "Das" (95%)
          ░░░░░░░░░░░░░░░░  andere Tokens (5%)

T = 1.0:  ████████░░░░░░░░  "Das" (50%)
          ████░░░░░░░░░░░░  "Ein" (25%)
          ██░░░░░░░░░░░░░░  "Die" (15%)

T = 2.0:  ███░░░░░░░░░░░░░  "Das" (20%)
          ███░░░░░░░░░░░░░  "Ein" (18%)
          ██░░░░░░░░░░░░░░  "Die" (15%)
          ...gleichmäßiger verteilt

Empfehlungen

Use Case Temperature
Code, Fakten 0.0 - 0.3
Allgemein 0.7
Kreatives Schreiben 0.9 - 1.2
Brainstorming 1.0 - 1.5

Verwandte Parameter

  • Top-K: Nur die K wahrscheinlichsten Tokens betrachten
  • Top-P (Nucleus): Tokens bis kumulativ P Wahrscheinlichkeit

Siehe auch

  • Inferenz – Wo Temperature eingesetzt wird
  • LLM – Was sampelt