LLMパラメータープレイグラウンド
temperature、top-p、frequency penaltyなどのLLMパラメーターをビジュアルな解説付きで実験します
プリセット
ⓘ
出力のランダム性を制御します。値が高いほど創造的/ランダムな出力になり、低いほど集中的/決定論的な出力になります。
創造的 — より多様で意外性のある出力
ⓘ
トークン選択を累積確率で制限します。値が低いほど確率の高いトークンに限定されます。temperatureの代替手段です。
制限なし — 全語彙を考慮
ⓘ
出力にすでに出現したトークンの頻度に基づいてペナルティを課します。正の値は繰り返しを減らします。
ニュートラル — 自然な繰り返しパターン
ⓘ
出力に一度でも出現したトークンにペナルティを課します。モデルに新しいトピックについて話すよう促します。
ニュートラル — 自然なトピックの流れ
ⓘ
応答で生成するトークンの最大数です。1トークンはおおよそ4文字または英単語の約¾に相当します。
約3072語
設定JSON
{
"temperature": 1,
"top_p": 1,
"frequency_penalty": 0,
"presence_penalty": 0,
"max_tokens": 4096
}LLMパラメータープレイグラウンドとは?
LLMパラメータープレイグラウンドは、LLMがテキストを生成する方法を制御する設定 — temperature、top-p(核サンプリング)、frequency penalty、presence penalty、max tokensなど — を実験できるツールです。これらのパラメーターは出力の品質、創造性、一貫性に大きな影響を与えますが、その相互作用はしばしば誤解されています。
多くの開発者はデフォルトのパラメーター値のまま調整しません。基本的なユースケースではそれで問題ありませんが、特定のタスクに合わせてパラメーターを調整することで、ロボット的なチャットボットと自然なチャットボットの違いや、信頼性の高いコード生成と創造的だが壊れた構文のコード生成の違いが生まれることがあります。
この無料プレイグラウンドは、各パラメーターのインタラクティブなビジュアライゼーションを提供し、モデルの次のトークン選択の確率分布にどのように影響するかを示します。スライダーを調整し、リアルタイムの視覚的フィードバックを確認し、一般的なユースケース向けのプリセットを試し、設定をAPI対応のJSONとしてエクスポートできます。すべての処理はブラウザ内で行われ、データがサーバーに送信されることはありません。
このプレイグラウンドの使い方
LLMパラメーターの探索は直感的です:
- プリセットから開始 — 一般的なタスクに最適化されたプリセットから選択します:精密(コード、事実Q&A)、バランス(一般的な会話)、クリエイティブ(ライティング、ブレインストーミング)、最大多様性(アイデア生成)。各プリセットはすべてのパラメーターを推奨値に設定します。
- 個別パラメーターを調整 — スライダーを使って各パラメーターを変更します。ビジュアライゼーションがリアルタイムで更新され、確率分布の変化を示します。パラメーター名にカーソルを合わせると詳細な説明が表示されます。
- 確率ビジュアライゼーションを観察 — インタラクティブなチャートがシミュレートされたトークン確率分布を表示し、パラメーター選択がモデルが選択しやすいトークンにどう影響するかを示します。「核サンプリング」のような抽象的な概念を視覚的に具体化します。
- 設定を比較 — 複数の設定を保存し、並べて比較することで、パラメーターの変更が出力特性にどう影響するかを理解します。
- 設定をエクスポート — パラメーターをOpenAI、Anthropic、Google API用にフォーマットされたJSONオブジェクトとしてコピーします。エクスポートされた設定はコードに直接貼り付けて使用できます。
各パラメーターの理解
各パラメーターはテキスト生成の異なる側面を制御します。個別および組み合わせでの理解が、望む出力を得るための鍵です。
Temperature(0.0〜2.0)
Temperatureはランダム性を制御する最も重要なパラメーターです。softmax関数が確率に変換する前のlogits(生のモデル予測)をスケーリングします。temperature=0では、モデルは常に最も確率の高い1つのトークンを選択します — 出力は決定論的で繰り返しになります。temperature=1.0(デフォルト)では、元の確率分布が使用されます。temperature=2.0では、分布がほぼ平坦になり — ほぼどのトークンでも選択される可能性があり、非常に創造的だが不整合な出力になることがあります。
Top-p / 核サンプリング(0.0〜1.0)
Top-pは累積確率でトークン選択プールをフィルタリングします。top_p=0.1では、確率質量の上位10%を占めるトークンのみが考慮されます。top_p=1.0(デフォルト)では、すべてのトークンが対象です。Top-pは動的に適応するため有用です — モデルが確信している場合(1つのトークンが90%の確率を持つ)、top_p=0.95でも決定論的に選択されます。モデルが不確かな場合、同じ設定でもより多様性が許容されます。
Frequency Penalty(-2.0〜2.0)
Frequency penaltyは、出力にすでに出現したトークンの確率を、出現頻度に比例して減少させます。0.5の値は繰り返しを適度に抑制します。高い値(1.0〜2.0)は繰り返しトークンを強くペナルティし、語彙の多様性を向上させますが、技術用語や変数名の必要な繰り返しを避けてしまう可能性があります。
Presence Penalty(-2.0〜2.0)
Presence penaltyは、頻度に関係なく一度でも出現したトークンに一律のペナルティを適用します。frequency penaltyとは異なり、繰り返し回数に応じて増加しません。0.5の値はモデルに新しいトピックや語彙を導入するよう促します。創作文やブレインストーミングで、集中するのではなく広く探索してほしい場合に有用です。
Max Tokens
Max tokensは応答長の厳格な上限を設定します。これは目標値ではありません — モデルは自然な結論に達した場合、それより前に停止することがあります。max tokensを設定することで、予想外に長い(そしてコストの高い)応答を防ぎます。ほとんどのAPI呼び出しでは、コスト管理のためにこの値を明示的に設定することがベストプラクティスです。
ユースケース別の推奨プリセット
以下のプリセットは出発点です — 特定のニーズに応じてここから微調整してください:
- コード生成 — temperature=0.1、top_p=0.95、frequency_penalty=0、presence_penalty=0。一貫した構文による決定論的な出力。
- 事実Q&A — temperature=0.2、top_p=0.9、frequency_penalty=0、presence_penalty=0。純粋な決定論よりわずかに多い多様性がありますが、非常に集中しています。
- 一般的な会話 — temperature=0.7、top_p=0.95、frequency_penalty=0.3、presence_penalty=0.1。穏やかな繰り返し防止による自然な応答。
- 創作文 — temperature=1.0、top_p=0.95、frequency_penalty=0.5、presence_penalty=0.5。多様な語彙を強く促す高い多様性。
- ブレインストーミング — temperature=1.3、top_p=0.98、frequency_penalty=0.8、presence_penalty=0.8。アイデア生成のための最大多様性。出力を慎重に確認してください。
よくある質問
temperatureとtop_pの違いは何ですか?
temperatureとtop_pはどちらもモデル出力のランダム性を制御しますが、動作方法が異なります。Temperatureは確率分布をスケーリングします — 高い値は分布を平坦にし(よりランダム)、低い値は尖鋭にします(より決定論的)。Top_p(核サンプリング)は累積確率がpに達するトークンのみを考慮して分布を切り詰めます。temperature=0ではモデルは常に最も確率の高いトークンを選択します。top_p=0.1では上位10%の確率のトークンのみが考慮されます。ほとんどのプロバイダーは、両方を同時に調整するのではなく、どちらか一方を調整することを推奨しています。
frequency penaltyとpresence penaltyの違いは何ですか?
Frequency penaltyはトークンがすでに出現した回数に比例してその確率を減少させます — 単語の繰り返しが多いほどペナルティが強くなります。Presence penaltyは頻度に関係なく、一度でも出現したトークンに一律のペナルティを適用します。特定の単語の過度な繰り返しを減らすにはfrequency penaltyを使用してください。モデルに新しいトピックや語彙を探索させるにはpresence penaltyを使用してください。小さなfrequency penalty(0.3〜0.5)で通常は品質を損なわずに煩わしい繰り返しを減らせます。
コード生成に最適なパラメーター設定は何ですか?
コード生成には低いランダム性が最良の結果をもたらします。temperature=0.1〜0.2、top_p=0.95から始めてください。コードは構文的に正しく論理的に一貫している必要があるため、決定論的な出力が好まれます。frequency_penalty=0に設定してください。コードは自然にキーワードや変数名を繰り返すためです。創造的なコード(複数のソリューション生成やアプローチのブレインストーミング)の場合、temperatureを0.5〜0.7に上げることができますが、0.8を超えると無効な構文が生成されやすくなります。
パラメーター設定をチームと共有できますか?
はい。プレイグラウンドには「設定をコピー」ボタンがあり、現在のパラメーター設定をOpenAI、Anthropic、Google API形式に対応したJSONオブジェクトとしてエクスポートします。このJSONをチームメイトと共有したり、コードベースに貼り付けたり、後で使うために保存したりできます。また、パラメーターをエンコードした共有可能なURLも提供されるため、特定の設定をブックマークしたり同僚に送信したりできます。
関連ツール
AI開発ワークフローを最適化するその他のツールもご覧ください:
- AIハルシネーションリスクスコアラー — パラメーター選択がプロンプトのハルシネーションリスクにどう影響するかを確認
- AIモデル選択ウィザード — ユースケースとパフォーマンス要件に合ったモデルを見つける
- AI APIコスト計算ツール — 選択したモデルとパラメーターでのAI API呼び出しコストを見積もり