Zum Inhalt

Fine-Tuning

Fine-Tuning passt ein vortrainiertes Modell an eine spezifische Aufgabe oder Domäne an. Statt von Null zu trainieren, nutzt man das bestehende Wissen.


Warum Fine-Tuning?

  • Pre-Training ist extrem teuer (Millionen €)
  • Vortrainierte Modelle haben bereits gutes Allgemeinwissen
  • Fine-Tuning braucht nur Stunden statt Wochen

Arten von Fine-Tuning

Full Fine-Tuning

Alle Parameter werden trainiert. - Beste Qualität - Braucht viel VRAM & Compute

LoRA / QLoRA

Nur kleine Adapter-Gewichte werden trainiert. - Sehr effizient - 7B Modell auf Consumer-GPU möglich

Instruction Tuning

Training auf Instruction-Response-Paaren. - Model lernt, Anweisungen zu befolgen - Basis für Chat-Modelle


Typischer Workflow

1. Vortrainiertes Modell laden (z.B. Llama 3)
2. Dataset vorbereiten (Instruction + Response)
3. Training konfigurieren (LR, Epochs, LoRA Rank)
4. Training starten
5. Evaluieren & iterieren
6. Mergen oder als Adapter deployen

Siehe auch

  • LoRA – Effizientes Fine-Tuning
  • Parameter – Was angepasst wird
  • RLHF – Fine-Tuning mit menschlichem Feedback