Skip to content

Instantly share code, notes, and snippets.

@apstndb
Last active March 17, 2026 21:40
Show Gist options
  • Select an option

  • Save apstndb/89b1431cf075a0f0c74dc49203e468fb to your computer and use it in GitHub Desktop.

Select an option

Save apstndb/89b1431cf075a0f0c74dc49203e468fb to your computer and use it in GitHub Desktop.

Copilot Premium Request — 原価厨のためのコスト効率分析

原価厨向け。GitHub Copilot の premium request の multiplier と、各モデルの実トークン単価を比較し、 どのモデルが premium request 枠に対して割安・割高かを分析する。

2026年3月18日時点の情報に基づく。

⚠ 本分析の目的について: 本分析はユーザが premium request 枠を賢く活用し、損をせずに満足度の高い使い方をするためのものであり、GitHub に損をさせることを目的としたものではない。premium request の過度な消費や制度の裏をかくような利用は、GitHub による rate limit の強化や、最終的にはプランの課金制度自体の変更に繋がる可能性がある。持続可能なサービスのために、適切な利用を心がけてほしい。


Premium Request とは

GitHub Copilot の一部機能では、利用時に premium request が消費される。各プランには月ごとの premium request 枠が含まれており、使用するモデルや機能に応じて消費量が異なる。

機能別の消費ルール

premium request の消費単位は機能によって異なる。

  • Copilot Chat / Copilot CLI: ユーザのプロンプト 1 回につき multiplier 分を消費
  • コードレビュー: Copilot がレビューを実行するたびに 1 premium request を消費
  • Copilot coding agent: セッション開始時に multiplier 分を消費。加えてアクティブなセッション中のリアルタイムステアリングコメントごとに multiplier 分を追加消費
  • Spark: プロンプト 1 回につき固定で 4 premium request を消費

いずれの場合も、モデルが処理する全トークン — コンテキストとして渡されるファイル群、モデルが生成する reasoning/thinking トークン、ツール呼び出しとその結果 — の量は premium request の消費に影響しない。このため、1 premium request で処理されるトークンが多いほど、GitHub が負担する実コストは増大する。

その他の基本ルール

  • multiplier: モデルごとに異なる倍率が設定されており、上記の消費単位に対して倍率が適用される(例: 1x なら 1、3x なら 3)
  • 0x モデル: GPT-5 mini、GPT-4.1、GPT-4o 等は有料プランに含まれるモデルとして premium request を消費しない
  • 月次リセット: 枠は毎月1日 00:00 UTC にリセットされ、未使用分は繰り越されない
  • 超過: 有料プランでは枠を超えた分を 1 premium request あたり $0.04 の従量課金で利用可能(要予算設定)

詳細は Requests in GitHub Copilot および GitHub Copilot premium requests を参照。

プラン別 premium request 単価

プラン 月額 PR/月 PR/日 (≈) 単価/PR 従量超過 モデル制限
Student Free 300 10 Sonnet, Opus, GPT-5.4 手動選択不可
Pro $10 300 10 $0.033 $0.04 概ね選択可(例外あり)
Pro+ $39 1,500 50 $0.026 $0.04 概ね選択可(例外あり)
Business $19/seat 300 10 $0.063 $0.04 概ね選択可(例外あり)
Enterprise $39/seat 1,000 33 $0.039 $0.04 概ね選択可(例外あり)

Free プランは multiplier 体系が異なる(全モデル 1x)ため本分析の対象外。


Multiplier・原価一覧

Copilot の multiplier 表に基づく主要モデル一覧。Google 側で deprecated な Gemini 3 Pro は省略。

Student 列の ✓ = Student プランで手動選択可能。空欄 = 手動選択不可。リリースステータスの詳細は Supported AI models in GitHub Copilot を参照。

本表のプラン可否は実用上の近似として主に Student と non-Student 有料プランの差に着目している。厳密にはプランごとに例外があり、例えば Raptor mini は Business/Enterprise では利用不可、Claude Opus 4.6 Fast は Pro+/Enterprise 限定といった個別制限がある。詳細は Supported AI models per Copilot plan を参照。

トークン単価は各プロバイダの公式 API 価格(≤200K context)に基づく。

モデル 倍率 Input/1M Output/1M Student 備考
GPT-5 mini 0x $0.25 $2.00 現行。PR 消費なし
GPT-4.1 0x $2.00 $8.00 PR 消費なし
GPT-4o 0x $2.50 $10.00 PR 消費なし
Raptor mini 0x 価格非公開、現行。PR 消費なし。Business/Enterprise 不可
Grok Code Fast 1 0.25x $0.20 $1.50 現行
Claude Haiku 4.5 0.33x $1.00 $5.00 現行
Gemini 3 Flash 0.33x $0.50 $3.00 現行
GPT-5.1-Codex-Mini 0.33x $0.25 $2.00
GPT-5.4 mini 0.33x $0.75 $4.50 現行。multiplier 改定の可能性あり
Claude Sonnet 4.6 1x $3.00 $15.00 現行。multiplier 改定の可能性あり
Claude Sonnet 4.5 1x $3.00 $15.00
Claude Sonnet 4 1x $3.00 $15.00
GPT-5.4 1x $2.50 $15.00 現行。Codex/汎用統合
Gemini 3.1 Pro 1x $2.00 $12.00 現行
GPT-5.3-Codex 1x $1.75 $14.00 Student Codex 系選択肢
GPT-5.2 1x $1.75 $14.00 Student 汎用系選択肢
GPT-5.2-Codex 1x $1.75 $14.00
Gemini 2.5 Pro 1x $1.25 $10.00
GPT-5.1-Codex-Max 1x $1.25 $10.00
GPT-5.1 1x $1.25 $10.00
GPT-5.1-Codex 1x $1.25 $10.00
Claude Opus 4.6 3x $5.00 $25.00 現行
Claude Opus 4.5 3x $5.00 $25.00
Claude Opus 4.6 Fast 30x $30.00 $150.00 現行。Pro+/Enterprise 限定

Raptor mini / Goldeneye は Microsoft が fine-tune した OpenAI ベースのモデルで、GitHub 管理の Azure OpenAI tenant 上で Copilot 向けに提供されている(Model hosting 参照)。 Raptor mini は GPT-5 mini ベースで、個人向け有料プランでは 0x(使い放題)だが Business/Enterprise では利用不可。 Goldeneye は Free プラン専用(1x)で有料プランでは利用不可。 いずれも価格非公開のため原価ベースの比較はできない。

価格ソースについて: OpenAI モデルは OpenAI API Pricing の公式価格を使用。なお、OpenCode Zen 等のゲートウェイでは一部モデル(GPT-5.1 系など)がこれと異なる価格で提供されている場合がある。


分析

$/PR(実コスト / multiplier)

1 premium request あたり GitHub が負担する実トークンコスト。この値が大きいほど、ユーザーにとって premium request 枠が有利に働く。

モデル間の相対効率はトークン数に依存しない。 コスト = (入力トークン × 入力単価 + 出力トークン × 出力単価) / multiplier なので、トークン数は分子のみにかかり、相対比率は入出力比のみで決まる。

vs Sonnet 4.6 列 は 1x モデルの中で最も原価が高い(= premium request 効率が最も良い)Claude Sonnet 4.6 の $/PR を 100% とした相対値。

以下は 入力 100K / 出力 10K トークン (I:O = 10:1) の場合:

モデル 倍率 $/PR vs Sonnet 4.6 損益分岐 Student
Claude Haiku 4.5 0.33x $0.455 101% 約 9.7K
Claude Sonnet 4.6 1x $0.450 100% 約 9.8K
Claude Sonnet 4.5 / 4 1x $0.450 100% 約 9.8K
GPT-5.4 1x $0.400 89% 約 11K
GPT-5.4 mini 0.33x $0.364 81% 約 12K
Gemini 3.1 Pro 1x $0.320 71% 約 14K
GPT-5.3-Codex / 5.2 1x $0.315 70% 約 14K
Claude Opus 4.6 / 4.5 3x $0.250 56% 約 18K
Gemini 3 Flash 0.33x $0.242 54% 約 18K
GPT-5.1 / Codex / Max 1x $0.225 50% 約 20K
Gemini 2.5 Pro 1x $0.225 50% 約 20K
Claude Opus 4.6 Fast 30x $0.150 33% 約 29K
Grok Code Fast 1 0.25x $0.140 31% 約 31K
GPT-5.1-Codex-Mini 0.33x $0.136 30% 約 32K

損益分岐の読み方

損益分岐 = 「premium request 1つの実コスト」が「従量超過単価 $0.04 × multiplier」を上回る合計トークン数。これより多くトークンが処理されれば、premium request で払う方が API 直接利用より安い。

GPT-5.4 の約 11K は I:O = 10:1 だと入力 10K + 出力 1K に相当する。 入出力ともに短いプロンプトでも既に損益分岐を超える水準であり、 エージェントのターンが増えるほど premium request の方がさらに有利になる。 2026年3月時点のコミュニティ観測では GPT-5.4 は 1x 帯の上位候補として評価が高く(これは公式 benchmark の要約ではなくコミュニティの評判を含む)、 原価面でも premium request 効率の良い選択肢であることを示している。

コーディングエージェントの典型的なリクエスト(数万〜数十万トークン)では全モデルが損益分岐を超える。つまり、premium request で払う方が API 直接利用より原価ベースでは安い。

Reasoning Effort とトークン数: GPT-5.4 の xhigh のように reasoning effort を高く設定すると、モデルが生成する reasoning/thinking トークン(出力トークンとして課金)が大幅に増加する。これにより 1 プロンプトあたりの実コストが上がるため、損益分岐はさらに低いトークン数で超えることになり、premium request の優位性が増す。


考察

Premium request 効率の構造

同じ multiplier なら原価の高いモデルが premium request 効率が良い。 1x の中では Sonnet 4.6 > GPT-5.4 > Gemini 3.1 Pro > GPT-5.2/5.3 > Gemini 2.5 Pro ≈ GPT-5.1 系 の順。

Haiku 4.5 は全モデル中最高の premium request 効率。 0.33x で $1/$5 の原価のため、1 premium request 換算の $/PR が Sonnet 4.6 すら上回る(101%)。0.33x しか消費しないのに、GitHub の 1 premium request あたりの原価負担は 1x の Sonnet と同等以上。GPT-5.4 mini(0.33x, $0.75/$4.50)も同様の構造で、$/PR 81% と多くの 1x モデルを上回る。

multiplier の増加は原価の増加より急。 Opus 4.6 は Sonnet 4.6 の約 1.67 倍の原価だが multiplier は 3 倍。Fast mode は通常 Opus の 6 倍の原価に対し multiplier は 10 倍。multiplier の増加が原価を上回るため、$/PR では Sonnet の方が有利。

Sonnet 4.6 と GPT-5.4 mini の multiplier は改定の可能性がある。 GitHub の公式ドキュメントには「The multiplier for these models are subject to change.」として Claude Sonnet 4.6 と GPT-5.4 mini が挙げられている。両モデルはそれぞれの multiplier 帯(1x / 0.33x)で最も原価が高く、GitHub にとって premium request あたりの負担が大きいモデルである。この注記がこの 2 モデルにのみ付されていることは、原価負担の大きさと無関係ではないだろう。仮に multiplier が引き上げられれば、本分析の $/PR ランキングは大きく変動する。

原価 ≠ 性能、そして速度

本分析の $/PR は GitHub が負担する原価の大きさ であり、モデルの性能とは別の指標。プロバイダ・世代が異なると原価と性能は相関しない。例えば 1x で原価最高は Sonnet 4.6($3/$15)だが、2026年3月時点のコミュニティ観測では GPT-5.4($2.50/$15)の方が評価が高い(これは公式 benchmark の要約ではなくコミュニティの評判を含む)。

Gemini の価格競争力は premium request 原価比では裏目に出る。 Gemini の競争力あるトークン単価には Google の TPU ベースの垂直統合インフラが寄与している可能性がある(ただしこれは推測を含む)。しかし Copilot では同じ 1x の premium request を消費するため、安価であることが「GitHub の負担が少ない=ユーザーにとって premium request 枠の恩恵が小さい」ことを意味する。

速度も判断基準になる。 Haiku 4.5 や Gemini 3 Flash は原価が安いだけでなくレイテンシが小さい。premium request 効率と速度の両方で優れるこれらのモデルは、繰り返しの多いタスクやインタラクティブな利用で特に有利。一方 Opus 4.6 Fast(30x)は速度に特化した特殊なモードだが、premium request の消費は非常に大きい。

高性能モデルが結果的に安くつく場合もある。 multiplier が高くても、高性能なモデルの方がタスクを少ないターン数で完了でき、結果的に premium request の消費が少なくなる可能性がある。例えば 3x の Opus で 1 ターンで解決できるタスクを、1x のモデルで 4 ターン試行錯誤するなら、Opus の方が効率は良い。原価だけでなく、タスク完了までの総 premium request 消費で判断すべき場面もある。

Premium request の使い方戦略

premium request はユーザのプロンプト回数(機能によってはセッションやレビューイベント)でカウントされる。このため、どこで節約しどこに投資するかのメリハリが枠の活用度を大きく左右する。

温存: 低コストなタスクに premium request を使わない。 0x モデル(GPT-5 mini / GPT-4.1 / GPT-4o)は premium request を消費しない。0.25x の Grok Code Fast 1 や 0.33x の Haiku 4.5 / Gemini 3 Flash も消費が小さい。正確性が重要でないテキスト生成(コミットメッセージ、ボイラープレート、下書き等)は 0x モデルに任せ、premium request 枠を温存する。

ターン数の削減: 同じ目的を少ない premium request で達成する。 短い質問と応答を繰り返すインタラクティブな利用は 1 ターンあたりのトークン数が少なく、$/PR が低い水準にとどまる。Student/Pro/Business の日 10 premium request 枠では 1x モデルで 10 ターン、3x の Opus なら約 3 ターンで枯渇する。Enterprise(日 33)や Pro+(日 50)でも高 multiplier モデルを多用すれば余裕はない。質問をまとめて 1 プロンプトに集約する、Copilot の Plan モードで計画→一括実行に切り替えるといった工夫が有効。

高効率なユースケースに枠を集中させる。 エージェントのオートパイロットのように、ユーザが 1 回指示を出すとモデルが自律的に多数のツール呼び出しや長い推論を行うユースケースは、1 premium request で大量のトークンが処理されるため $/PR が非常に高くなり、原価対比での優位性が最大化される。同様に Copilot CLI の /research のような調査タスクも 1 premium request で広範な情報収集を行うため効率が高い。温存した枠をこうした高効率なユースケースに回すことで、同じ枠でより多くの価値を引き出せる。

余裕を並列実行・投機的利用に振り向ける。 上記の節約で枠に余裕が生まれた場合や、Pro+(日 50)/ Enterprise(日 33)のように元々枠が大きい場合、あるいは従量超過の予算を確保している場合は、使い方自体が質的に変わる。

  • 並列実行: Git worktree を使って一つのプロジェクトの複数ブランチを同時に作業したり、複数プロジェクトでそれぞれ Copilot CLI セッションを走らせたり、Copilot coding agent で複数の Pull Request を同時に作成させるといった使い方が現実的になる。Copilot CLI の /fleet もサブエージェントを並列に走らせる機能だが、サブエージェントごとに premium request が消費される点に注意。
  • バックログの消化: 優先度や重要度が低くバックログに積まれがちな仕事 — nice-to-have のリファクタリング、ドキュメント整備、技術的負債の解消、手作業で繰り返しているトイルの自動化とその検証など — をモデルに任せられる。人手では後回しになるタスクを premium request で片付けることで、プロジェクト全体の健全性を底上げできる。
  • 投機的な利用: 実験的なアプローチの試行、捨てる前提のプロトタイプ生成など、成果が得られなかったり失敗するリスクがある仕事もモデルに任せられる。結果を採用するかどうかはユーザが判断すればよく、仮に不採用でも従量超過のコストは $0.04 × multiplier に過ぎない。
  • 高 multiplier モデルの気軽な利用: 日 10 premium request では 3x の Opus を 3 回使えば枯渇するが、日 50 なら 16 回使える。高性能モデルを試行錯誤に使う余裕が生まれ、前述の「高性能モデルが結果的に安くつく」戦略が取りやすくなる。
  • CI/CD での活用: Copilot CLI は fine-grained PAT を使って CI/CD パイプライン内で実行することも可能(Automate with Actions 参照)。GitHub Actions の例が公式にあるが、動作原理上は他の CI/CD 環境でも利用できる。Pull Request レビューの自動化、リリースノートの生成、定型的なコード変更の適用など、人手を介さないワークフローに premium request を振り向けられる。

Student プラン

Sonnet・Opus・GPT-5.4 が手動選択不可。選択可能な 1x では Gemini 3.1 Pro、GPT-5.3-Codex(Codex 系)、GPT-5.2(汎用系)が選択肢。


参考文献

GitHub Copilot 公式ドキュメント

GitHub Copilot の機能

GitHub Copilot Student プラン変更 (2026年3月)

トークン単価ソース

各プロバイダの公式価格:

横断的な参考:

  • OpenCode Zen — Pricing — Claude, Gemini, GPT, xAI 等を横断して per-token 価格を掲載。一部モデルで公式価格と異なるゲートウェイ価格が設定されている場合がある

ライセンス

本ドキュメントは CC BY 4.0 の下で利用可能です。 参照先の各ドキュメントはそれぞれの著作権者に帰属します。


分析作成: 2026-03-15、最終更新: 2026-03-18

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment