Fine-Tuning, das [Substantiv, Neutrum] ist ein Verfahren im Post-Training-Prozess eines KI-Modells, bei dem ein bereits umfassend vortrainiertes Sprachmodell (z. B. ein LLM) mit zusätzlichen, oft spezialisierten Daten weitertrainiert wird. Ziel ist es, das Modell auf konkrete Aufgaben, Fachgebiete oder Kommunikationsstile anzupassen.
Beispielsweise kann ein allgemeines Sprachmodell, das im Pre-Training auf breiten Internetdaten basiert, durch Fine-Tuning auf juristische Schriftsätze oder medizinische Leitlinien fokussiert werden. Auch unternehmenseigene Wissensbasen oder interne Sprachstile lassen sich so integrieren.
Fine-Tuning funktioniert, indem das bestehende neuronale Netz weiter mit Beispielen gefüttert wird, wobei die ursprünglichen Sprachfähigkeiten erhalten bleiben, aber durch neue Kontexte verfeinert werden. Dabei kann es sich sowohl um klassisches supervised learning handeln (z. B. Frage-Antwort-Paare) als auch um komplexere Konfigurationen mit Feedback-Loops.
Ein Vorteil des Fine-Tunings ist die hohe Präzision und Kontrolle über das Modellverhalten – zugleich birgt es aber Risiken wie Überanpassung („Overfitting“) oder die unabsichtliche Verstärkung von Verzerrungen in den neuen Daten.
Für ai natives ist Fine-Tuning ein zentrales Werkzeug, um KI-Systeme wirklich nützlich, markenspezifisch und kontextsensibel zu machen – sei es in Unternehmen, Bildungsprojekten oder kreativen Prozessen. Es ist der Unterschied zwischen „einsetzbar“ und „maßgeschneidert“.