Was ist Temperature in der KI?
Temperature ist ein Parameter in Large Language Models, der steuert, wie kreativ oder vorhersehbar die generierten Antworten sind.
Wie funktioniert der Temperature-Parameter?
Ein LLM berechnet Wahrscheinlichkeiten für mögliche nächste Wörter.
Die Temperature beeinflusst, wie stark diese Wahrscheinlichkeiten gewichtet werden:
- Niedrige Temperature (z. B. 0–0,3) → sehr vorhersehbare, konsistente Antworten
- Mittlere Temperature (z. B. 0,5–0,7) → ausgewogene Antworten
- Hohe Temperature (z. B. 0,8–1,2) → kreativere, variablere Antworten
Je höher die Temperature, desto größer ist die Variation im Output.
Warum ist Temperature für Unternehmen relevant?
Die richtige Temperature-Einstellung beeinflusst:
- Konsistenz von Marketingtexten
- Qualität automatisierter Reports
- Stabilität von Chatbot-Antworten
- Kreativität bei Ideenfindung
Für strukturierte Inhalte ist eine niedrige Temperature empfehlenswert. Für Brainstorming kann eine höhere Temperature sinnvoll sein.
Unterschied zwischen Temperature und Top-p
Temperature steuert die Gewichtung von Wahrscheinlichkeiten.
Top-p (Nucleus Sampling) begrenzt die Auswahl auf die wahrscheinlichsten Optionen.
Beide Parameter beeinflussen die Textgenerierung.
Praxisbeispiel
Ein Unternehmen nutzt ein LLM für Produktbeschreibungen.
Bei niedriger Temperature bleiben die Texte konsistent.
Bei höherer Temperature entstehen variablere Formulierungen.
Verwandte Begriffe
- Prompt Engineering
- Large Language Model (LLM)
- Halluzination
- Few-Shot Learning
- Top-p
FAQ
Führt eine hohe Temperature zu mehr Halluzinationen?
Sie kann das Risiko erhöhen, da ungewöhnlichere Wortfolgen gewählt werden.
Ist Temperature immer einstellbar?
Bei API-basierten Modellen meist ja. Bei Chat-Oberflächen oft nicht direkt.
Welche Temperature ist ideal?
Das hängt vom Anwendungsfall ab. Strukturierte Aufgaben benötigen meist niedrigere Werte.