Fine-Tuning¶
Fine-Tuning passt ein vortrainiertes Modell an eine spezifische Aufgabe oder Domäne an. Statt von Null zu trainieren, nutzt man das bestehende Wissen.
Warum Fine-Tuning?¶
- Pre-Training ist extrem teuer (Millionen €)
- Vortrainierte Modelle haben bereits gutes Allgemeinwissen
- Fine-Tuning braucht nur Stunden statt Wochen
Arten von Fine-Tuning¶
Full Fine-Tuning¶
Alle Parameter werden trainiert. - Beste Qualität - Braucht viel VRAM & Compute
LoRA / QLoRA¶
Nur kleine Adapter-Gewichte werden trainiert. - Sehr effizient - 7B Modell auf Consumer-GPU möglich
Instruction Tuning¶
Training auf Instruction-Response-Paaren. - Model lernt, Anweisungen zu befolgen - Basis für Chat-Modelle
Typischer Workflow¶
1. Vortrainiertes Modell laden (z.B. Llama 3)
2. Dataset vorbereiten (Instruction + Response)
3. Training konfigurieren (LR, Epochs, LoRA Rank)
4. Training starten
5. Evaluieren & iterieren
6. Mergen oder als Adapter deployen