コンテキストウィンドウビジュアライザー&トークンカウンター

テキスト内のトークンを数え、各AIモデルのコンテキストウィンドウの使用率を視覚化します

~/context-window
0 文字0 単語0 行~0 トークン
4.0 c/t

上にテキストを貼り付けて、各AIモデルのコンテキストウィンドウにどう収まるか確認します。

OpenAI、Anthropic、Google、Mistralなどのモデル間でトークン使用量を比較。すべてのカウントはブラウザ内で行われます。

コンテキストウィンドウビジュアライザーとは?

コンテキストウィンドウビジュアライザーは、各AIモデルのコンテキストウィンドウに対してテキストがどの程度の割合を消費するかを正確に表示するツールです。コンテキストウィンドウ — モデルが1回のリクエストで処理できるテキストの最大量 — は、モデルによって65Kトークン(DeepSeek)から100万トークン以上(Gemini 2.5)まで大きく異なります。

コンテキスト制限の理解は、AIアプリケーション構築において極めて重要です。プロンプトと期待される応答の合計がコンテキストウィンドウを超えると、モデルは入力を切り詰めるか、完全に失敗します。このツールは、すべての主要モデル間でのビジュアル比較を表示することで、計画をサポートします。

内蔵のトークンカウンターは、入力やペーストに応じてリアルタイムでトークン数を推定します。大規模なWASMライブラリの読み込みが必要な完全なトークナイザーではありませんが、文字対トークン比率による推定は、計画目的で10〜20%の精度を持つ実用的な値を提供します。すべての処理はブラウザ内で行われます。

このツールの使い方

トークンのカウントとコンテキストウィンドウの比較は簡単です:

  1. テキストを入力エリアに貼り付けます。プロンプト、ドキュメント、AIモデルに送信予定の任意のテキストが使用できます。
  2. リアルタイムカウンターを確認します:文字数、単語数、行数、推定トークン数が入力に応じて更新されます。
  3. 必要に応じて文字/トークン比率のスライダーを調整します。デフォルトの4.0は英語に適しています。CJK言語(中国語、日本語、韓国語)やコード中心のコンテンツには2.5〜3.0を使用してください。
  4. プロバイダー(OpenAI、Anthropic、Googleなど)またはティア(フラッグシップ、ミッドティア、バジェット)でモデルをフィルタリングし、関連するオプションに絞り込みます。
  5. ビジュアルバーを比較します — 緑は十分な余裕があること、黄色は半分以上使用していること、赤は制限に近づいていることを示します。
  6. 比較サマリー全体をコピーして、チームと共有したりドキュメントに含めたりできます。

トークン推定の理解

トークンは、大規模言語モデルが処理する基本単位です。1トークンはおおよそ4文字、英単語の約¾に相当します。英語の「hamburger」という単語は「ham」「bur」「ger」の3トークンに分割されます。「the」や「is」などの一般的な単語は1トークンです。

なぜ近似値を使用するのか?

各AIプロバイダーは異なるトークナイザーを使用しています。OpenAIはtiktoken(BPEベース)を使用し、Anthropicは独自のトークナイザーを持ち、GoogleはSentencePieceを使用しています。1つのプロバイダーだけでも、実際のトークナイザーはWASMモジュールとして800KB以上の容量があります。これはすべてのプロバイダーを横断する比較ツールであるため、すべてのプロバイダーで機能する軽量な比率ベースの推定を使用しています。

言語による違い

英語は1トークンあたり平均約4文字です。CJK言語(中国語、日本語、韓国語)は各文字がより多くの情報を持つため、1トークンあたり2〜3文字程度です。コードは1トークンあたり3〜4文字の傾向があります。コンテンツの種類に合わせて比率スライダーを調整してください。

プロバイダー別コンテキストウィンドウ比較

コンテキストウィンドウは急速に拡大しています。2023年には4K〜8Kトークンが標準でした。2025年までに、ほとんどのフラッグシップモデルは128K〜200Kトークンを提供し、GoogleのGeminiモデルは100万トークン以上をサポートしています。より大きなコンテキストウィンドウにより、コードベース全体の分析、長文ドキュメントの処理、長時間の会話の維持などのユースケースが可能になります。

  • OpenAI GPT-5シリーズ:全ティアで128Kトークン、o3/o4-miniモデルは200Kを提供
  • Anthropic Claude 4.x:全ティアで200Kトークン、現在最大の標準ウィンドウ
  • Google Gemini 2.x:100万トークン以上、利用可能な中で最大のコンテキストウィンドウ
  • Mistral:モデルに応じて128K〜256Kトークン
  • xAI Grok:131Kトークン
  • DeepSeek:65Kトークン、よりコンパクトだが手頃な料金

よくある質問

トークン数はどの程度正確ですか?

推定値は、英語テキストの場合、通常実際のカウントの10〜20%以内の精度です。文字対トークン比率(英語のデフォルトは4.0)を使用しており、これは広く認められた近似値です。正確なカウントについては、プロバイダーの公式トークナイザーをご利用ください。このツールは迅速な計画用であり、精密な課金計算用ではありません。

コンテキストウィンドウと最大出力の違いは何ですか?

コンテキストウィンドウは入力+出力の合計制限です。最大出力は、モデルが応答で生成するトークンの上限です。例えば、Claude Opus 4.6は200Kのコンテキストウィンドウを持ちますが、最大出力は32Kです。プロンプトは最大168Kトークンまで使用でき、応答のための余裕が残ります。

なぜ同じテキストでもモデルごとに使用率が異なるのですか?

各モデルのコンテキストウィンドウの合計サイズが異なるためです。Geminiの100万コンテキストの0.2%を使用するテキストは、65Kコンテキストモデルでは1.5%を使用する可能性があります。これがまさに比較ビューが役立つ理由です — お使いのコンテンツを余裕を持って処理できるモデルを確認できます。

比率スライダーを調整すべきですか?

ほとんどの英語テキストでは、デフォルトの4.0で問題ありません。コンテンツが主にコードの場合は3.5をお試しください。中国語、日本語、韓国語のテキストには2.5を使用してください。混合コンテンツの場合は4.0のままで問題ありません — 計画目的には許容範囲の誤差です。

テキストがモデルのコンテキストウィンドウを超えるとどうなりますか?

モデルのAPIは、プロバイダーによってエラーを返すか、入力を黙って切り詰めます。OpenAIは明確なエラーメッセージを返します。一部のプロバイダーは会話の先頭から自動的に切り詰めます。モデルの応答のための余裕を残すため、使用率を80%以下に抑えることをお勧めします。

関連ツール

AIワークフローの最適化に役立つその他のツールもご覧ください:

関連ツール