プロンプト トークン費用計算ツール
プロンプトを貼り付けて OpenAI 公式トークナイザー(cl100k / o200k)で正確にカウントし、GPT・Claude・Gemini・DeepSeek の1コール単価をキャッシュ割引込みで比較できます。
このツールについて
LLM 呼び出しの費用を機能リリース前に見積もるのは意外と面倒です。プロバイダーごとにトークナイザーが違い、入力と出力で単価も違い、プロンプトキャッシュによる割引で月額が10分の1になることもあります。このツールはそのすべてを1画面に集約します。
OpenAI 系(GPT-4o、GPT-4o mini、GPT-4 Turbo、GPT-4.1、o1、o1-mini、o3、o3-mini、o4-mini)のトークン数は 正確 です。公式の cl100k_base と o200k_base の BPE エンコーダーを gpt-tokenizer 経由で同梱し、ブラウザ内で実行しています。ここに表示される数値は OpenAI API の usage.prompt_tokens と完全一致します。
Anthropic Claude(Opus 4.7 / Sonnet 4.6 / Haiku 4.5)、Google Gemini(2.5 Pro / 2.5 Flash)、DeepSeek-V3 は文字数ベースの近似計算にフォールバックします。英語は 約4文字 = 1トークン、CJK は 約2文字 = 1トークン が目安です。該当する行には「Approx」バッジが付くので、正確値と取り違える心配はありません。自然言語であれば実測との誤差は概ね 5〜15% 以内、コードや表は誤差が広がるため、近似行は 請求額ではなく予算検討用 として扱ってください。
このツールは 入力(プロンプト) と 出力(生成結果) を分離して計算します。短い質問に長い回答を返すケース — ドキュメント生成、翻訳、長文記事執筆など — では出力側のコストが支配的です。プロンプトキャッシュ を有効にすると、Anthropic の 1.25倍書き込み / 0.1倍読み込み価格が反映されます。50K トークンのシステムプロンプトを100コールにわたってキャッシュすると、Anthropic では請求が80%以上削減できることもあります。バッチ件数 欄は月次予算を組むときに便利です。詳細分析には、単一モデル用のLLM トークンカウンター、API レスポンスを整形するJSON フォーマッター、ログから usage ブロックを抽出するための正規表現テスターと組み合わせて使ってください。
トークン化、コスト計算、クリップボードコピー — すべての処理がブラウザ内で完結します。プロンプトテキストはアップロードもログ記録も解析もされず、ページは初回ロード後オフラインで動作します。入力内容に紐づくテレメトリも一切ないため、社内のシステムプロンプト・顧客データ・未公開の製品コピーを貼り付けても安全です。
使い方
- プロンプト / 入力テキスト 欄に、自分のプロンプトまたはサンプルチップを貼り付けます。OpenAI 系2種のエンコーダーのトークン数は約250ms以内に更新されます。
- Expected output tokens(想定出力トークン数) に、想定する生成長を入力します(短い回答なら200、段落なら500、長文なら2000程度)。
- Batch / call count(バッチ・呼び出し回数) に月次想定回数を入れると、月額の概算が得られます(例: 1日10,000回 × 30日 = 300,000)。
- Providers チップでプロバイダー単位の表示をON/OFFできます。1モデルだけ非表示にしたい場合は表の右端の ✕ をクリックします。
- Prompt caching discount をONにすると、Anthropic / OpenAI のプロンプトキャッシュ価格を反映できます。読み込み・書き込みのシェアスライダーで、想定キャッシュヒット率を調整します。
- 表の上に表示される Cheapest インジケーターで、現在の設定における最安モデルが一目でわかります。
- Copy summary(または
Ctrl+Shift+C)でテキスト形式の集計をクリップボードにコピーし、予算ドキュメントに貼り付けられます。
代表的なユースケース
- GPT-4o vs Claude Opus 4.7:トークン単価の比較
- トークナイザーの精度:OpenAI BPE vs Anthropic 近似
- Embedding コスト比較:text-embedding-3-small vs Cohere vs Voyage
- Claude プロンプトキャッシュ:1設定で請求80%削減
- ロングコンテキストのコスト:128K トークンの単価は実際いくらか
- エージェントループ:「単純なタスク」が 50K トークンになる理由
- RAG パイプラインのコスト:Embedding + 検索 + 生成
- 翻訳タスクのコスト:GPT-4o vs DeepL vs Google Translate
よくある質問
プロンプトトークンとは何ですか?
トークンとは、モデルのトークナイザーが生成するサブワード単位のことです。OpenAI の o200k エンコーディング(GPT-4o 系)では1トークンが英語の3〜4文字、約0.75単語に相当します。空白・句読点・コード・CJK文字はそれぞれトークン化のされ方が異なるため、同じ文字数でもトークン数は大きく変わります。料金は常に「1,000,000 トークンあたり」で表示されます。
Claude / Gemini / DeepSeek の数値が近似なのはなぜですか?
Anthropic、Google、DeepSeek はいずれも JavaScript で動かせる公式トークナイザーを公開していません。Anthropic 公式のトークン数取得方法はサーバー API 経由となり、プロンプトを送信する必要があるため、オフラインツールという本ツールの趣旨と相容れません。そのため文字数ベースの近似(英語は約4文字/トークン、CJK は約2文字/トークン)を使っています。自然言語であれば実測値との誤差は概ね 5〜15% に収まります。コード、テーブル、JSON は密にトークン化される傾向があるため、その用途では表示コストに 10〜20% のマージンを上乗せして見積もってください。
プロンプトキャッシュ割引はどう計算されますか?
プロンプトキャッシュは、長いシステムプロンプトや文脈を多数のコール間で再利用するための仕組みです。Anthropic はキャッシュ書き込み時に入力単価の 1.25倍を請求し(TTL は5分)、その後の読み込みは 0.1倍で済みます。50K トークンのシステムプロンプトを100コールで再利用すれば、5,000K トークン全額請求の代わりに約26K トークン相当の請求で済みます。OpenAI のプロンプトキャッシュは自動で、キャッシュ読み込みは入力単価の 0.5倍、書き込みプレミアムはありません。キャッシュをONにし、読み込みシェアのスライダーを想定ヒット率に合わせれば、表が即座に再計算されます。
GPT-4o / Claude Opus / Gemini 2.5 Pro はどう使い分ける?
GPT-4o($2.50 / $10 per 1M tokens)はフロンティアモデル3社の中で最安かつ最低レイテンシで、チャットUIや低リスクな生成に向きます。Claude Opus 4.7($15 / $75)は最も高価ですが、長文の推論、丁寧なライティング、ツール呼び出しの精度で勝つ場面が多く、プロンプトキャッシュと組み合わせて費用を抑えるのが定石です。Gemini 2.5 Pro($1.25 / $10)は入力単価が3社中最安で 2M トークンの長大コンテキストを持ち、画像・動画などマルチモーダル処理に強いです。大量のバックグラウンドジョブ(抽出・分類)は、GPT-4o mini、Claude Haiku 4.5、Gemini 2.5 Flash、DeepSeek-V3 など入力 $1/1M 未満の小型モデルを検討してください。
OpenAI モデルにおける gpt-tokenizer の精度は?
完全一致です。gpt-tokenizer は OpenAI が内部および API で使うのと同じ BPE ランクテーブルを同梱しています。o200k_base は GPT-4o、GPT-4.1、o シリーズ(o1、o3、o4-mini)に、cl100k_base は GPT-4 Turbo と GPT-3.5 に使われます。本ツールが OpenAI モデル行で表示するトークン数は、OpenAI API が返す usage.prompt_tokens と桁単位で一致します(チャット形式の特殊トークンによる加算分 3〜7 トークン/メッセージは除く)。生テキストの補完なら完全一致です。
カスタムモデルや独自価格を追加できますか?
価格テーブルは src/data/llm-model-pricing.ts にデータとしてバンドルされており、UI から編集する必要はありません。本リポジトリをフォークしてローカル実行する場合は、このファイルに行を追加するだけで対応できます。tokenizer フィールドには 'approx'(または OpenAI トークナイザーを使うモデルなら 'cl100k_base' / 'o200k_base')を指定してください。lastUpdated フィールドにより、価格レビューの監査も簡単に行えます。
データは安全ですか?
はい、完全に安全です。トークン化は gpt-tokenizer の JavaScript ライブラリでブラウザ内実行されるため、プロンプトテキスト・トークン数・コスト数値のいずれも外部送信されません。プロンプトのログ記録、入力内容に対するアナリティクス、リモートのトークン化エンドポイントは一切利用していません(そもそも本ツールの趣旨に反します)。初回ロード後はオフラインで動作するため、社内のシステムプロンプト、顧客データ、未公開の製品コピーを貼り付けても痕跡を残しません。
関連ツール
LLM Token Counter
Count tokens and estimate API costs for Claude, GPT-4o, Gemini, and other LLM models. Compare pricing across providers.
JSONフォーマッター
JSONの整形、検証、ツリー表示をシンタックスハイライト付きで行えます。
正規表現テスター
リアルタイムのマッチハイライトとキャプチャグループで正規表現をテストします。
コード圧縮ツール
JavaScript、CSS、HTMLコードの圧縮と美化をサイズ比較付きで行います。
MCP サーバ設定ジェネレーター
Claude Desktop、Cursor、Cline、Windsurf 向けの MCP(Model Context Protocol)設定 JSON を 5 つのプリセットから生成。シークレット警告付き。
文字数カウンター
単語数、文字数、文数、段落数のカウントと読了時間の推定、キーワード頻度分析を行います。