Temperature

Parameter

Parameter fuer Kreativitaet. Niedrig (0) = vorhersagbar. Hoch (1+) = kreativer, aber auch ungenauer.

Was ist Temperature?

Temperature (Temperatur) ist ein Parameter, der bei der Textgenerierung durch KI-Modelle steuert, wie zufällig oder vorhersagbar die Ausgabe ausfällt. Der Wert liegt typischerweise zwischen 0 und 2. Eine niedrige Temperature (nahe 0) führt dazu, dass das Modell fast immer das wahrscheinlichste nächste Token wählt, was zu konsistenten, aber potenziell eintönigen Antworten führt. Eine hohe Temperature (über 1) macht die Ausgabe kreativer und vielfältiger, erhöht aber gleichzeitig das Risiko von Fehlern und unsinnigen Formulierungen.

Wie funktioniert Temperature?

Bei der Textgenerierung berechnet das Modell für jedes mögliche nächste Token eine Wahrscheinlichkeit. Die Temperature beeinflusst die Verteilung dieser Wahrscheinlichkeiten, bevor ein Token ausgewählt wird. Mathematisch werden die sogenannten Logits (Rohwerte des Modells) durch den Temperature-Wert geteilt, bevor die Softmax-Funktion angewandt wird.

Bei Temperature 0 wird stets das Token mit der höchsten Wahrscheinlichkeit gewählt (deterministisch). Bei Temperature 1 bleiben die Wahrscheinlichkeiten unverändert. Bei Temperature 2 werden die Unterschiede zwischen wahrscheinlichen und unwahrscheinlichen Tokens stark abgeflacht, sodass auch seltene Wörter häufiger zum Zug kommen. In der Praxis hat sich bewährt: Temperature 0 bis 0,3 für Faktenantworten und Datenextraktion, 0,5 bis 0,7 für ausgewogene Texte und 0,8 bis 1,2 für kreatives Schreiben.

Warum ist Temperature wichtig?

Die richtige Temperature-Einstellung entscheidet darüber, ob ein KI-System für den jeweiligen Anwendungsfall brauchbare Ergebnisse liefert. Ein Chatbot für Kundensupport sollte niedrige Werte nutzen, um verlässliche und konsistente Antworten zu geben. Ein Tool zur Ideengenerierung profitiert von höheren Werten. Unternehmen, die KI-APIs einsetzen, können über diesen einen Parameter die Ausgabequalität maßgeblich beeinflussen, ohne das Modell selbst ändern zu müssen. Temperature wird oft in Kombination mit Top-k und Top-p Sampling eingesetzt, um die Textgenerierung noch feiner zu steuern.

Verwandte Begriffe

Top-k Sampling · Top-p Sampling · Token · Inferenz · Softmax

← Zurück zum Glossar