LLM-Parameter-Spielwiese

Experimentieren Sie mit Temperature, Top-p, Frequency Penalty und anderen LLM-Parametern mit visuellen Erklärungen

~/llm-parameters

Voreinstellungen

Steuert die Zufälligkeit der Ausgabe. Höhere Werte machen die Ausgabe kreativer/zufälliger, niedrigere Werte fokussierter/deterministischer.

1.0

Kreativ — vielfältigere und überraschendere Ausgaben

Begrenzt die Token-Auswahl auf eine kumulative Wahrscheinlichkeit. Niedrigere Werte beschränken auf wahrscheinlichere Tokens. Alternative zu Temperature.

1.0

Uneingeschränkt — das gesamte Vokabular wird berücksichtigt

Bestraft Tokens basierend darauf, wie oft sie bisher in der Ausgabe erschienen sind. Positive Werte reduzieren Wiederholungen.

0.0

Neutral — natürliche Wiederholungsmuster

Bestraft Tokens, die überhaupt in der Ausgabe erschienen sind. Ermutigt das Modell, über neue Themen zu sprechen.

0.0

Neutral — natürlicher Themenfluss

Maximale Anzahl der zu generierenden Tokens in der Antwort. Ein Token entspricht ungefähr 4 Zeichen oder ¾ eines Wortes.

4K

~3072 Wörter

Konfigurations-JSON

{
  "temperature": 1,
  "top_p": 1,
  "frequency_penalty": 0,
  "presence_penalty": 0,
  "max_tokens": 4096
}

Was ist eine LLM-Parameter-Spielwiese?

Eine LLM-Parameter-Spielwiese ermöglicht es Ihnen, mit den Einstellungen zu experimentieren, die steuern, wie große Sprachmodelle Text generieren — Temperature, Top-p (Nucleus Sampling), Frequency Penalty, Presence Penalty, Max Tokens und mehr. Diese Parameter beeinflussen die Ausgabequalität, Kreativität und Konsistenz erheblich, doch ihre Wechselwirkungen werden oft missverstanden.

Die meisten Entwickler starten mit Standardparameterwerten und passen sie nie an. Das funktioniert für grundlegende Anwendungsfälle, aber die Abstimmung der Parameter für Ihre spezifische Aufgabe kann den Unterschied ausmachen zwischen einem Chatbot, der sich roboterhaft anfühlt, und einem, der sich natürlich anfühlt, oder zwischen Codegenerierung, die zuverlässig ist, und Code, der voll kreativer, aber fehlerhafter Syntax ist.

Unsere kostenlose Spielwiese bietet interaktive Visualisierungen jedes Parameters und zeigt, wie sie die Wahrscheinlichkeitsverteilung der nächsten Token-Auswahl des Modells beeinflussen. Stellen Sie Regler ein, erhalten Sie visuelles Echtzeit-Feedback, experimentieren Sie mit Voreinstellungen für gängige Anwendungsfälle und exportieren Sie Ihre Konfiguration als API-fertiges JSON. Die gesamte Verarbeitung findet in Ihrem Browser statt, ohne dass Daten an einen Server gesendet werden.

So verwenden Sie diese Spielwiese

Die Erkundung von LLM-Parametern ist intuitiv:

  1. Mit einer Voreinstellung starten — Wählen Sie aus Voreinstellungen für gängige Aufgaben: Präzise (Code, faktische Fragen & Antworten), Ausgewogen (allgemeine Konversation), Kreativ (Schreiben, Brainstorming) oder Maximale Vielfalt (Ideengenerierung). Jede Voreinstellung setzt alle Parameter auf empfohlene Werte.
  2. Einzelne Parameter anpassen — Verwenden Sie die Regler, um jeden Parameter zu modifizieren. Die Visualisierung aktualisiert sich in Echtzeit und zeigt, wie sich die Wahrscheinlichkeitsverteilung ändert. Fahren Sie über einen Parameternamen für eine detaillierte Erklärung.
  3. Wahrscheinlichkeitsvisualisierung beobachten — Das interaktive Diagramm zeigt eine simulierte Token-Wahrscheinlichkeitsverteilung und veranschaulicht, wie Ihre Parameterwahl beeinflusst, welche Tokens das Modell wahrscheinlich auswählt. Dies macht abstrakte Konzepte wie «Nucleus Sampling» visuell greifbar.
  4. Konfigurationen vergleichen — Speichern Sie mehrere Konfigurationen und vergleichen Sie sie nebeneinander, um zu verstehen, wie Parameteränderungen die Ausgabeeigenschaften beeinflussen.
  5. Konfiguration exportieren — Kopieren Sie Ihre Parameter als JSON-Objekt, formatiert für OpenAI-, Anthropic- oder Google-APIs. Die exportierte Konfiguration kann direkt in Ihren Code eingefügt werden.

Jeden Parameter verstehen

Jeder Parameter steuert einen anderen Aspekt der Textgenerierung. Sie einzeln und in Kombination zu verstehen, ist der Schlüssel zu den gewünschten Ausgaben.

Temperature (0,0 – 2,0)

Temperature ist der wichtigste Parameter zur Steuerung der Zufälligkeit. Er skaliert die Logits (rohe Modellvorhersagen), bevor die Softmax-Funktion sie in Wahrscheinlichkeiten umwandelt. Bei temperature=0 wählt das Modell immer das wahrscheinlichste Token — Ausgaben sind deterministisch und repetitiv. Bei temperature=1,0 (Standard) wird die ursprüngliche Wahrscheinlichkeitsverteilung verwendet. Bei temperature=2,0 ist die Verteilung nahezu flach — fast jedes Token könnte ausgewählt werden, was zu höchst kreativen, aber oft inkohärenten Ausgaben führt.

Top-p / Nucleus Sampling (0,0 – 1,0)

Top-p filtert den Token-Auswahlpool nach kumulativer Wahrscheinlichkeit. Bei top_p=0,1 werden nur die Tokens berücksichtigt, die zusammen die obersten 10 % der Wahrscheinlichkeitsmasse ausmachen. Bei top_p=1,0 (Standard) sind alle Tokens zulässig. Top-p ist nützlich, weil es sich dynamisch anpasst — wenn das Modell sicher ist (ein Token hat 90 % Wahrscheinlichkeit), wählt top_p=0,95 immer noch deterministisch. Wenn das Modell unsicher ist, erlaubt dieselbe Einstellung mehr Vielfalt.

Frequency Penalty (-2,0 bis 2,0)

Die Frequency Penalty reduziert die Wahrscheinlichkeit von Tokens, die bereits in der Ausgabe erschienen sind, proportional dazu, wie oft sie erschienen sind. Ein Wert von 0,5 entmutigt Wiederholungen moderat. Höhere Werte (1,0–2,0) bestrafen wiederholte Tokens stark, was die Vokabelvielfalt verbessern kann, aber das Modell daran hindern kann, notwendige Wiederholungen technischer Begriffe oder Variablennamen zu verwenden.

Presence Penalty (-2,0 bis 2,0)

Die Presence Penalty wendet eine pauschale Strafe auf jedes Token an, das auch nur einmal erschienen ist, unabhängig von der Häufigkeit. Im Gegensatz zur Frequency Penalty erhöht sie sich nicht mit Wiederholungen. Ein Wert von 0,5 ermutigt das Modell, neue Themen und Vokabular einzuführen. Dies ist nützlich für kreatives Schreiben und Brainstorming, wo das Modell breit explorieren soll, statt fokussiert zu bleiben.

Max Tokens

Max Tokens setzt die feste Obergrenze für die Antwortlänge. Dies ist kein Zielwert — das Modell kann früher aufhören, wenn es einen natürlichen Abschluss erreicht. Das Setzen von Max Tokens verhindert unerwartet lange (und teure) Antworten. Für die meisten API-Aufrufe ist das explizite Setzen dieses Werts eine Best Practice für die Kostenkontrolle.

Empfohlene Voreinstellungen nach Anwendungsfall

Diese Voreinstellungen dienen als Ausgangspunkte — passen Sie sie basierend auf Ihren spezifischen Anforderungen an:

  • Codegenerierung — temperature=0,1, top_p=0,95, frequency_penalty=0, presence_penalty=0. Deterministische Ausgabe mit konsistenter Syntax.
  • Faktische Fragen & Antworten — temperature=0,2, top_p=0,9, frequency_penalty=0, presence_penalty=0. Etwas mehr Variation als rein deterministisch, aber immer noch sehr fokussiert.
  • Allgemeine Konversation — temperature=0,7, top_p=0,95, frequency_penalty=0,3, presence_penalty=0,1. Natürlich klingende Antworten mit milder Anti-Wiederholung.
  • Kreatives Schreiben — temperature=1,0, top_p=0,95, frequency_penalty=0,5, presence_penalty=0,5. Hohe Vielfalt mit starker Förderung von vielfältigem Vokabular.
  • Brainstorming — temperature=1,3, top_p=0,98, frequency_penalty=0,8, presence_penalty=0,8. Maximale Vielfalt für die Ideengenerierung. Ausgabe sorgfältig prüfen.

Häufig gestellte Fragen

Was ist der Unterschied zwischen Temperature und Top_p?

Temperature und Top_p steuern beide die Zufälligkeit in Modellausgaben, aber sie funktionieren unterschiedlich. Temperature skaliert die Wahrscheinlichkeitsverteilung — höhere Werte glätten sie (mehr Zufall), niedrigere Werte schärfen sie (mehr Determinismus). Top_p (Nucleus Sampling) beschneidet die Verteilung, indem nur Tokens berücksichtigt werden, deren kumulative Wahrscheinlichkeit p erreicht. Bei temperature=0 wählt das Modell immer das wahrscheinlichste Token. Bei top_p=0,1 berücksichtigt das Modell nur die oberen 10 % der wahrscheinlichsten Tokens. Die meisten Anbieter empfehlen, nur einen der beiden Parameter anzupassen, nicht beide gleichzeitig.

Was ist der Unterschied zwischen Frequency Penalty und Presence Penalty?

Die Frequency Penalty reduziert die Wahrscheinlichkeit von Tokens proportional dazu, wie oft sie bereits erschienen sind — je öfter ein Wort wiederholt wird, desto stärker die Strafe. Die Presence Penalty wendet eine pauschale Strafe auf jedes Token an, das überhaupt erschienen ist, unabhängig von der Häufigkeit. Verwenden Sie die Frequency Penalty, um übermäßige Wiederholung bestimmter Wörter zu reduzieren. Verwenden Sie die Presence Penalty, um das Modell zu ermutigen, neue Themen und Vokabular zu erkunden. Eine kleine Frequency Penalty (0,3–0,5) reicht oft aus, um störende Wiederholungen zu reduzieren, ohne die Qualität zu beeinträchtigen.

Welche Parametereinstellungen sind am besten für die Codegenerierung?

Für die Codegenerierung liefert niedrige Zufälligkeit die besten Ergebnisse. Beginnen Sie mit temperature=0,1–0,2 und top_p=0,95. Code muss syntaktisch korrekt und logisch konsistent sein, daher sind deterministische Ausgaben vorzuziehen. Setzen Sie frequency_penalty=0, da Code natürlicherweise Schlüsselwörter und Variablennamen wiederholt. Für kreativen Code (Generierung mehrerer Lösungen oder Brainstorming von Ansätzen) können Sie die Temperature auf 0,5–0,7 erhöhen, aber Werte über 0,8 neigen dazu, ungültige Syntax zu produzieren.

Kann ich meine Parameterkonfigurationen mit meinem Team teilen?

Ja. Die Spielwiese enthält eine «Konfiguration kopieren»-Schaltfläche, die Ihre aktuellen Parametereinstellungen als JSON-Objekt exportiert, kompatibel mit den API-Formaten von OpenAI, Anthropic und Google. Sie können dieses JSON mit Teammitgliedern teilen, in Ihre Codebasis einfügen oder für später speichern. Das Werkzeug bietet auch eine teilbare URL, die Ihre Parameter kodiert, sodass Sie bestimmte Konfigurationen als Lesezeichen speichern oder an Kollegen senden können.

Verwandte Werkzeuge

Entdecken Sie weitere Werkzeuge zur Optimierung Ihres KI-Entwicklungs-Workflows:

Verwandte Werkzeuge