原価厨向け。GitHub Copilot の premium request の multiplier と、各モデルの実トークン単価を比較し、 どのモデルが premium request 枠に対して割安・割高かを分析する。
2026年3月18日時点の情報に基づく。
⚠ 本分析の目的について: 本分析はユーザが premium request 枠を賢く活用し、損をせずに満足度の高い使い方をするためのものであり、GitHub に損をさせることを目的としたものではない。premium request の過度な消費や制度の裏をかくような利用は、GitHub による rate limit の強化や、最終的にはプランの課金制度自体の変更に繋がる可能性がある。持続可能なサービスのために、適切な利用を心がけてほしい。
GitHub Copilot の一部機能では、利用時に premium request が消費される。各プランには月ごとの premium request 枠が含まれており、使用するモデルや機能に応じて消費量が異なる。
premium request の消費単位は機能によって異なる。
- Copilot Chat / Copilot CLI: ユーザのプロンプト 1 回につき multiplier 分を消費
- コードレビュー: Copilot がレビューを実行するたびに 1 premium request を消費
- Copilot coding agent: セッション開始時に multiplier 分を消費。加えてアクティブなセッション中のリアルタイムステアリングコメントごとに multiplier 分を追加消費
- Spark: プロンプト 1 回につき固定で 4 premium request を消費
いずれの場合も、モデルが処理する全トークン — コンテキストとして渡されるファイル群、モデルが生成する reasoning/thinking トークン、ツール呼び出しとその結果 — の量は premium request の消費に影響しない。このため、1 premium request で処理されるトークンが多いほど、GitHub が負担する実コストは増大する。
- multiplier: モデルごとに異なる倍率が設定されており、上記の消費単位に対して倍率が適用される(例: 1x なら 1、3x なら 3)
- 0x モデル: GPT-5 mini、GPT-4.1、GPT-4o 等は有料プランに含まれるモデルとして premium request を消費しない
- 月次リセット: 枠は毎月1日 00:00 UTC にリセットされ、未使用分は繰り越されない
- 超過: 有料プランでは枠を超えた分を 1 premium request あたり $0.04 の従量課金で利用可能(要予算設定)
詳細は Requests in GitHub Copilot および GitHub Copilot premium requests を参照。
| プラン | 月額 | PR/月 | PR/日 (≈) | 単価/PR | 従量超過 | モデル制限 |
|---|---|---|---|---|---|---|
| Student | Free | 300 | 10 | — | — | Sonnet, Opus, GPT-5.4 手動選択不可 |
| Pro | $10 | 300 | 10 | $0.033 | $0.04 | 概ね選択可(例外あり) |
| Pro+ | $39 | 1,500 | 50 | $0.026 | $0.04 | 概ね選択可(例外あり) |
| Business | $19/seat | 300 | 10 | $0.063 | $0.04 | 概ね選択可(例外あり) |
| Enterprise | $39/seat | 1,000 | 33 | $0.039 | $0.04 | 概ね選択可(例外あり) |
Free プランは multiplier 体系が異なる(全モデル 1x)ため本分析の対象外。
Copilot の multiplier 表に基づく主要モデル一覧。Google 側で deprecated な Gemini 3 Pro は省略。
Student 列の ✓ = Student プランで手動選択可能。空欄 = 手動選択不可。リリースステータスの詳細は Supported AI models in GitHub Copilot を参照。
本表のプラン可否は実用上の近似として主に Student と non-Student 有料プランの差に着目している。厳密にはプランごとに例外があり、例えば Raptor mini は Business/Enterprise では利用不可、Claude Opus 4.6 Fast は Pro+/Enterprise 限定といった個別制限がある。詳細は Supported AI models per Copilot plan を参照。
トークン単価は各プロバイダの公式 API 価格(≤200K context)に基づく。
| モデル | 倍率 | Input/1M | Output/1M | Student | 備考 |
|---|---|---|---|---|---|
| GPT-5 mini | 0x | $0.25 | $2.00 | ✓ | 現行。PR 消費なし |
| GPT-4.1 | 0x | $2.00 | $8.00 | ✓ | PR 消費なし |
| GPT-4o | 0x | $2.50 | $10.00 | ✓ | PR 消費なし |
| Raptor mini | 0x | — | — | ✓ | 価格非公開、現行。PR 消費なし。Business/Enterprise 不可 |
| Grok Code Fast 1 | 0.25x | $0.20 | $1.50 | ✓ | 現行 |
| Claude Haiku 4.5 | 0.33x | $1.00 | $5.00 | ✓ | 現行 |
| Gemini 3 Flash | 0.33x | $0.50 | $3.00 | ✓ | 現行 |
| GPT-5.1-Codex-Mini | 0.33x | $0.25 | $2.00 | ✓ | |
| GPT-5.4 mini | 0.33x | $0.75 | $4.50 | 現行。multiplier 改定の可能性あり | |
| Claude Sonnet 4.6 | 1x | $3.00 | $15.00 | 現行。multiplier 改定の可能性あり | |
| Claude Sonnet 4.5 | 1x | $3.00 | $15.00 | ||
| Claude Sonnet 4 | 1x | $3.00 | $15.00 | ||
| GPT-5.4 | 1x | $2.50 | $15.00 | 現行。Codex/汎用統合 | |
| Gemini 3.1 Pro | 1x | $2.00 | $12.00 | ✓ | 現行 |
| GPT-5.3-Codex | 1x | $1.75 | $14.00 | ✓ | Student Codex 系選択肢 |
| GPT-5.2 | 1x | $1.75 | $14.00 | ✓ | Student 汎用系選択肢 |
| GPT-5.2-Codex | 1x | $1.75 | $14.00 | ✓ | |
| Gemini 2.5 Pro | 1x | $1.25 | $10.00 | ✓ | |
| GPT-5.1-Codex-Max | 1x | $1.25 | $10.00 | ✓ | |
| GPT-5.1 | 1x | $1.25 | $10.00 | ✓ | |
| GPT-5.1-Codex | 1x | $1.25 | $10.00 | ✓ | |
| Claude Opus 4.6 | 3x | $5.00 | $25.00 | 現行 | |
| Claude Opus 4.5 | 3x | $5.00 | $25.00 | ||
| Claude Opus 4.6 Fast | 30x | $30.00 | $150.00 | 現行。Pro+/Enterprise 限定 |
Raptor mini / Goldeneye は Microsoft が fine-tune した OpenAI ベースのモデルで、GitHub 管理の Azure OpenAI tenant 上で Copilot 向けに提供されている(Model hosting 参照)。 Raptor mini は GPT-5 mini ベースで、個人向け有料プランでは 0x(使い放題)だが Business/Enterprise では利用不可。 Goldeneye は Free プラン専用(1x)で有料プランでは利用不可。 いずれも価格非公開のため原価ベースの比較はできない。
価格ソースについて: OpenAI モデルは OpenAI API Pricing の公式価格を使用。なお、OpenCode Zen 等のゲートウェイでは一部モデル(GPT-5.1 系など)がこれと異なる価格で提供されている場合がある。
1 premium request あたり GitHub が負担する実トークンコスト。この値が大きいほど、ユーザーにとって premium request 枠が有利に働く。
モデル間の相対効率はトークン数に依存しない。 コスト = (入力トークン × 入力単価 + 出力トークン × 出力単価) / multiplier なので、トークン数は分子のみにかかり、相対比率は入出力比のみで決まる。
vs Sonnet 4.6 列 は 1x モデルの中で最も原価が高い(= premium request 効率が最も良い)Claude Sonnet 4.6 の $/PR を 100% とした相対値。
以下は 入力 100K / 出力 10K トークン (I:O = 10:1) の場合:
| モデル | 倍率 | $/PR | vs Sonnet 4.6 | 損益分岐 | Student |
|---|---|---|---|---|---|
| Claude Haiku 4.5 | 0.33x | $0.455 | 101% | 約 9.7K | ✓ |
| Claude Sonnet 4.6 | 1x | $0.450 | 100% | 約 9.8K | |
| Claude Sonnet 4.5 / 4 | 1x | $0.450 | 100% | 約 9.8K | |
| GPT-5.4 | 1x | $0.400 | 89% | 約 11K | |
| GPT-5.4 mini | 0.33x | $0.364 | 81% | 約 12K | |
| Gemini 3.1 Pro | 1x | $0.320 | 71% | 約 14K | ✓ |
| GPT-5.3-Codex / 5.2 | 1x | $0.315 | 70% | 約 14K | ✓ |
| Claude Opus 4.6 / 4.5 | 3x | $0.250 | 56% | 約 18K | |
| Gemini 3 Flash | 0.33x | $0.242 | 54% | 約 18K | ✓ |
| GPT-5.1 / Codex / Max | 1x | $0.225 | 50% | 約 20K | ✓ |
| Gemini 2.5 Pro | 1x | $0.225 | 50% | 約 20K | ✓ |
| Claude Opus 4.6 Fast | 30x | $0.150 | 33% | 約 29K | |
| Grok Code Fast 1 | 0.25x | $0.140 | 31% | 約 31K | ✓ |
| GPT-5.1-Codex-Mini | 0.33x | $0.136 | 30% | 約 32K | ✓ |
損益分岐 = 「premium request 1つの実コスト」が「従量超過単価 $0.04 × multiplier」を上回る合計トークン数。これより多くトークンが処理されれば、premium request で払う方が API 直接利用より安い。
GPT-5.4 の約 11K は I:O = 10:1 だと入力 10K + 出力 1K に相当する。 入出力ともに短いプロンプトでも既に損益分岐を超える水準であり、 エージェントのターンが増えるほど premium request の方がさらに有利になる。 2026年3月時点のコミュニティ観測では GPT-5.4 は 1x 帯の上位候補として評価が高く(これは公式 benchmark の要約ではなくコミュニティの評判を含む)、 原価面でも premium request 効率の良い選択肢であることを示している。
コーディングエージェントの典型的なリクエスト(数万〜数十万トークン)では全モデルが損益分岐を超える。つまり、premium request で払う方が API 直接利用より原価ベースでは安い。
Reasoning Effort とトークン数: GPT-5.4 の
xhighのように reasoning effort を高く設定すると、モデルが生成する reasoning/thinking トークン(出力トークンとして課金)が大幅に増加する。これにより 1 プロンプトあたりの実コストが上がるため、損益分岐はさらに低いトークン数で超えることになり、premium request の優位性が増す。
同じ multiplier なら原価の高いモデルが premium request 効率が良い。 1x の中では Sonnet 4.6 > GPT-5.4 > Gemini 3.1 Pro > GPT-5.2/5.3 > Gemini 2.5 Pro ≈ GPT-5.1 系 の順。
Haiku 4.5 は全モデル中最高の premium request 効率。 0.33x で $1/$5 の原価のため、1 premium request 換算の $/PR が Sonnet 4.6 すら上回る(101%)。0.33x しか消費しないのに、GitHub の 1 premium request あたりの原価負担は 1x の Sonnet と同等以上。GPT-5.4 mini(0.33x, $0.75/$4.50)も同様の構造で、$/PR 81% と多くの 1x モデルを上回る。
multiplier の増加は原価の増加より急。 Opus 4.6 は Sonnet 4.6 の約 1.67 倍の原価だが multiplier は 3 倍。Fast mode は通常 Opus の 6 倍の原価に対し multiplier は 10 倍。multiplier の増加が原価を上回るため、$/PR では Sonnet の方が有利。
Sonnet 4.6 と GPT-5.4 mini の multiplier は改定の可能性がある。 GitHub の公式ドキュメントには「The multiplier for these models are subject to change.」として Claude Sonnet 4.6 と GPT-5.4 mini が挙げられている。両モデルはそれぞれの multiplier 帯(1x / 0.33x)で最も原価が高く、GitHub にとって premium request あたりの負担が大きいモデルである。この注記がこの 2 モデルにのみ付されていることは、原価負担の大きさと無関係ではないだろう。仮に multiplier が引き上げられれば、本分析の $/PR ランキングは大きく変動する。
本分析の $/PR は GitHub が負担する原価の大きさ であり、モデルの性能とは別の指標。プロバイダ・世代が異なると原価と性能は相関しない。例えば 1x で原価最高は Sonnet 4.6($3/$15)だが、2026年3月時点のコミュニティ観測では GPT-5.4($2.50/$15)の方が評価が高い(これは公式 benchmark の要約ではなくコミュニティの評判を含む)。
Gemini の価格競争力は premium request 原価比では裏目に出る。 Gemini の競争力あるトークン単価には Google の TPU ベースの垂直統合インフラが寄与している可能性がある(ただしこれは推測を含む)。しかし Copilot では同じ 1x の premium request を消費するため、安価であることが「GitHub の負担が少ない=ユーザーにとって premium request 枠の恩恵が小さい」ことを意味する。
速度も判断基準になる。 Haiku 4.5 や Gemini 3 Flash は原価が安いだけでなくレイテンシが小さい。premium request 効率と速度の両方で優れるこれらのモデルは、繰り返しの多いタスクやインタラクティブな利用で特に有利。一方 Opus 4.6 Fast(30x)は速度に特化した特殊なモードだが、premium request の消費は非常に大きい。
高性能モデルが結果的に安くつく場合もある。 multiplier が高くても、高性能なモデルの方がタスクを少ないターン数で完了でき、結果的に premium request の消費が少なくなる可能性がある。例えば 3x の Opus で 1 ターンで解決できるタスクを、1x のモデルで 4 ターン試行錯誤するなら、Opus の方が効率は良い。原価だけでなく、タスク完了までの総 premium request 消費で判断すべき場面もある。
premium request はユーザのプロンプト回数(機能によってはセッションやレビューイベント)でカウントされる。このため、どこで節約しどこに投資するかのメリハリが枠の活用度を大きく左右する。
温存: 低コストなタスクに premium request を使わない。 0x モデル(GPT-5 mini / GPT-4.1 / GPT-4o)は premium request を消費しない。0.25x の Grok Code Fast 1 や 0.33x の Haiku 4.5 / Gemini 3 Flash も消費が小さい。正確性が重要でないテキスト生成(コミットメッセージ、ボイラープレート、下書き等)は 0x モデルに任せ、premium request 枠を温存する。
ターン数の削減: 同じ目的を少ない premium request で達成する。 短い質問と応答を繰り返すインタラクティブな利用は 1 ターンあたりのトークン数が少なく、$/PR が低い水準にとどまる。Student/Pro/Business の日 10 premium request 枠では 1x モデルで 10 ターン、3x の Opus なら約 3 ターンで枯渇する。Enterprise(日 33)や Pro+(日 50)でも高 multiplier モデルを多用すれば余裕はない。質問をまとめて 1 プロンプトに集約する、Copilot の Plan モードで計画→一括実行に切り替えるといった工夫が有効。
高効率なユースケースに枠を集中させる。 エージェントのオートパイロットのように、ユーザが 1 回指示を出すとモデルが自律的に多数のツール呼び出しや長い推論を行うユースケースは、1 premium request で大量のトークンが処理されるため $/PR が非常に高くなり、原価対比での優位性が最大化される。同様に Copilot CLI の /research のような調査タスクも 1 premium request で広範な情報収集を行うため効率が高い。温存した枠をこうした高効率なユースケースに回すことで、同じ枠でより多くの価値を引き出せる。
余裕を並列実行・投機的利用に振り向ける。 上記の節約で枠に余裕が生まれた場合や、Pro+(日 50)/ Enterprise(日 33)のように元々枠が大きい場合、あるいは従量超過の予算を確保している場合は、使い方自体が質的に変わる。
- 並列実行: Git worktree を使って一つのプロジェクトの複数ブランチを同時に作業したり、複数プロジェクトでそれぞれ Copilot CLI セッションを走らせたり、Copilot coding agent で複数の Pull Request を同時に作成させるといった使い方が現実的になる。Copilot CLI の
/fleetもサブエージェントを並列に走らせる機能だが、サブエージェントごとに premium request が消費される点に注意。 - バックログの消化: 優先度や重要度が低くバックログに積まれがちな仕事 — nice-to-have のリファクタリング、ドキュメント整備、技術的負債の解消、手作業で繰り返しているトイルの自動化とその検証など — をモデルに任せられる。人手では後回しになるタスクを premium request で片付けることで、プロジェクト全体の健全性を底上げできる。
- 投機的な利用: 実験的なアプローチの試行、捨てる前提のプロトタイプ生成など、成果が得られなかったり失敗するリスクがある仕事もモデルに任せられる。結果を採用するかどうかはユーザが判断すればよく、仮に不採用でも従量超過のコストは $0.04 × multiplier に過ぎない。
- 高 multiplier モデルの気軽な利用: 日 10 premium request では 3x の Opus を 3 回使えば枯渇するが、日 50 なら 16 回使える。高性能モデルを試行錯誤に使う余裕が生まれ、前述の「高性能モデルが結果的に安くつく」戦略が取りやすくなる。
- CI/CD での活用: Copilot CLI は fine-grained PAT を使って CI/CD パイプライン内で実行することも可能(Automate with Actions 参照)。GitHub Actions の例が公式にあるが、動作原理上は他の CI/CD 環境でも利用できる。Pull Request レビューの自動化、リリースノートの生成、定型的なコード変更の適用など、人手を介さないワークフローに premium request を振り向けられる。
Sonnet・Opus・GPT-5.4 が手動選択不可。選択可能な 1x では Gemini 3.1 Pro、GPT-5.3-Codex(Codex 系)、GPT-5.2(汎用系)が選択肢。
- Requests in GitHub Copilot — multiplier 一覧、機能別の premium request 消費ルール
- GitHub Copilot premium requests (Billing) — 課金の仕組み、SKU、超過・予算管理
- Plans for GitHub Copilot — プラン比較、premium request 付与数
- Supported AI models in GitHub Copilot — プラン別モデル利用可否、リリースステータス
- AI model comparison — モデル特性比較(Raptor mini, Goldeneye 等の独自モデル含む)
- Hosting of models for GitHub Copilot Chat — モデルのホスティング元
- About individual GitHub Copilot plans and benefits — Student / Pro / Pro+ の機能比較
- Premium request management — 従量超過・予算管理
- About Copilot auto model selection — Auto モードの multiplier discount(Copilot Chat 限定)
- Researching with Copilot — Copilot CLI の
/researchによる調査機能 - Running tasks in parallel with /fleet — サブエージェント並列実行と premium request 消費
- Automate Copilot CLI with Actions — CI/CD での Copilot CLI 実行
- Updates to GitHub Copilot for students — GitHub Changelog
- Important Updates to GitHub Copilot for Students — Community Discussion #189268
各プロバイダの公式価格:
- Anthropic — Models — Claude モデル価格
- OpenAI — API Pricing — GPT-5.4, GPT-5.1 系等
- OpenAI — Developer Docs Pricing — 詳細な tier 別価格
- Google AI for Developers — Gemini API Pricing — Gemini API 価格
- Google Cloud — Vertex AI Pricing — Vertex AI 経由の Gemini 価格
- xAI — Grok Code Fast 1 — $0.20 / $1.50 per 1M tokens
- xAI — Models and Pricing — xAI 全モデル価格一覧
横断的な参考:
- OpenCode Zen — Pricing — Claude, Gemini, GPT, xAI 等を横断して per-token 価格を掲載。一部モデルで公式価格と異なるゲートウェイ価格が設定されている場合がある
本ドキュメントは CC BY 4.0 の下で利用可能です。 参照先の各ドキュメントはそれぞれの著作権者に帰属します。
分析作成: 2026-03-15、最終更新: 2026-03-18