プロンプト トークン費用計算ツール

プロンプトを貼り付けて OpenAI 公式トークナイザー(cl100k / o200k)で正確にカウントし、GPT・Claude・Gemini・DeepSeek の1コール単価をキャッシュ割引込みで比較できます。

このツールについて

LLM 呼び出しの費用を機能リリース前に見積もるのは意外と面倒です。プロバイダーごとにトークナイザーが違い、入力と出力で単価も違い、プロンプトキャッシュによる割引で月額が10分の1になることもあります。このツールはそのすべてを1画面に集約します。

OpenAI 系(GPT-4o、GPT-4o mini、GPT-4 Turbo、GPT-4.1、o1、o1-mini、o3、o3-mini、o4-mini)のトークン数は 正確 です。公式の cl100k_baseo200k_base の BPE エンコーダーを gpt-tokenizer 経由で同梱し、ブラウザ内で実行しています。ここに表示される数値は OpenAI API の usage.prompt_tokens と完全一致します。

Anthropic Claude(Opus 4.7 / Sonnet 4.6 / Haiku 4.5)、Google Gemini(2.5 Pro / 2.5 Flash)、DeepSeek-V3 は文字数ベースの近似計算にフォールバックします。英語は 約4文字 = 1トークン、CJK は 約2文字 = 1トークン が目安です。該当する行には「Approx」バッジが付くので、正確値と取り違える心配はありません。自然言語であれば実測との誤差は概ね 5〜15% 以内、コードや表は誤差が広がるため、近似行は 請求額ではなく予算検討用 として扱ってください。

このツールは 入力(プロンプト)出力(生成結果) を分離して計算します。短い質問に長い回答を返すケース — ドキュメント生成、翻訳、長文記事執筆など — では出力側のコストが支配的です。プロンプトキャッシュ を有効にすると、Anthropic の 1.25倍書き込み / 0.1倍読み込み価格が反映されます。50K トークンのシステムプロンプトを100コールにわたってキャッシュすると、Anthropic では請求が80%以上削減できることもあります。バッチ件数 欄は月次予算を組むときに便利です。詳細分析には、単一モデル用のLLM トークンカウンター、API レスポンスを整形するJSON フォーマッター、ログから usage ブロックを抽出するための正規表現テスターと組み合わせて使ってください。

トークン化、コスト計算、クリップボードコピー — すべての処理がブラウザ内で完結します。プロンプトテキストはアップロードもログ記録も解析もされず、ページは初回ロード後オフラインで動作します。入力内容に紐づくテレメトリも一切ないため、社内のシステムプロンプト・顧客データ・未公開の製品コピーを貼り付けても安全です。

使い方

  1. プロンプト / 入力テキスト 欄に、自分のプロンプトまたはサンプルチップを貼り付けます。OpenAI 系2種のエンコーダーのトークン数は約250ms以内に更新されます。
  2. Expected output tokens(想定出力トークン数) に、想定する生成長を入力します(短い回答なら200、段落なら500、長文なら2000程度)。
  3. Batch / call count(バッチ・呼び出し回数) に月次想定回数を入れると、月額の概算が得られます(例: 1日10,000回 × 30日 = 300,000)。
  4. Providers チップでプロバイダー単位の表示をON/OFFできます。1モデルだけ非表示にしたい場合は表の右端の ✕ をクリックします。
  5. Prompt caching discount をONにすると、Anthropic / OpenAI のプロンプトキャッシュ価格を反映できます。読み込み・書き込みのシェアスライダーで、想定キャッシュヒット率を調整します。
  6. 表の上に表示される Cheapest インジケーターで、現在の設定における最安モデルが一目でわかります。
  7. Copy summary(または Ctrl+Shift+C)でテキスト形式の集計をクリップボードにコピーし、予算ドキュメントに貼り付けられます。

代表的なユースケース

すべての 15 件を見る →

よくある質問

プロンプトトークンとは何ですか?

トークンとは、モデルのトークナイザーが生成するサブワード単位のことです。OpenAI の o200k エンコーディング(GPT-4o 系)では1トークンが英語の3〜4文字、約0.75単語に相当します。空白・句読点・コード・CJK文字はそれぞれトークン化のされ方が異なるため、同じ文字数でもトークン数は大きく変わります。料金は常に「1,000,000 トークンあたり」で表示されます。

Claude / Gemini / DeepSeek の数値が近似なのはなぜですか?

Anthropic、Google、DeepSeek はいずれも JavaScript で動かせる公式トークナイザーを公開していません。Anthropic 公式のトークン数取得方法はサーバー API 経由となり、プロンプトを送信する必要があるため、オフラインツールという本ツールの趣旨と相容れません。そのため文字数ベースの近似(英語は約4文字/トークン、CJK は約2文字/トークン)を使っています。自然言語であれば実測値との誤差は概ね 5〜15% に収まります。コード、テーブル、JSON は密にトークン化される傾向があるため、その用途では表示コストに 10〜20% のマージンを上乗せして見積もってください。

プロンプトキャッシュ割引はどう計算されますか?

プロンプトキャッシュは、長いシステムプロンプトや文脈を多数のコール間で再利用するための仕組みです。Anthropic はキャッシュ書き込み時に入力単価の 1.25倍を請求し(TTL は5分)、その後の読み込みは 0.1倍で済みます。50K トークンのシステムプロンプトを100コールで再利用すれば、5,000K トークン全額請求の代わりに約26K トークン相当の請求で済みます。OpenAI のプロンプトキャッシュは自動で、キャッシュ読み込みは入力単価の 0.5倍、書き込みプレミアムはありません。キャッシュをONにし、読み込みシェアのスライダーを想定ヒット率に合わせれば、表が即座に再計算されます。

GPT-4o / Claude Opus / Gemini 2.5 Pro はどう使い分ける?

GPT-4o($2.50 / $10 per 1M tokens)はフロンティアモデル3社の中で最安かつ最低レイテンシで、チャットUIや低リスクな生成に向きます。Claude Opus 4.7($15 / $75)は最も高価ですが、長文の推論、丁寧なライティング、ツール呼び出しの精度で勝つ場面が多く、プロンプトキャッシュと組み合わせて費用を抑えるのが定石です。Gemini 2.5 Pro($1.25 / $10)は入力単価が3社中最安で 2M トークンの長大コンテキストを持ち、画像・動画などマルチモーダル処理に強いです。大量のバックグラウンドジョブ(抽出・分類)は、GPT-4o mini、Claude Haiku 4.5、Gemini 2.5 Flash、DeepSeek-V3 など入力 $1/1M 未満の小型モデルを検討してください。

OpenAI モデルにおける gpt-tokenizer の精度は?

完全一致です。gpt-tokenizer は OpenAI が内部および API で使うのと同じ BPE ランクテーブルを同梱しています。o200k_base は GPT-4o、GPT-4.1、o シリーズ(o1、o3、o4-mini)に、cl100k_base は GPT-4 Turbo と GPT-3.5 に使われます。本ツールが OpenAI モデル行で表示するトークン数は、OpenAI API が返す usage.prompt_tokens と桁単位で一致します(チャット形式の特殊トークンによる加算分 3〜7 トークン/メッセージは除く)。生テキストの補完なら完全一致です。

カスタムモデルや独自価格を追加できますか?

価格テーブルは src/data/llm-model-pricing.ts にデータとしてバンドルされており、UI から編集する必要はありません。本リポジトリをフォークしてローカル実行する場合は、このファイルに行を追加するだけで対応できます。tokenizer フィールドには 'approx'(または OpenAI トークナイザーを使うモデルなら 'cl100k_base' / 'o200k_base')を指定してください。lastUpdated フィールドにより、価格レビューの監査も簡単に行えます。

データは安全ですか?

はい、完全に安全です。トークン化は gpt-tokenizer の JavaScript ライブラリでブラウザ内実行されるため、プロンプトテキスト・トークン数・コスト数値のいずれも外部送信されません。プロンプトのログ記録、入力内容に対するアナリティクス、リモートのトークン化エンドポイントは一切利用していません(そもそも本ツールの趣旨に反します)。初回ロード後はオフラインで動作するため、社内のシステムプロンプト、顧客データ、未公開の製品コピーを貼り付けても痕跡を残しません。

関連ツール