AIに対する需要の伸びに供給の設備投資が追いつかないでAIが高価になるシナリオはどの程度の確率で発生しそうか検討して
2026年4月時点での私の見立てです。ここでは 2026〜2028 年を想定し、「AIが高価になる」を“必要な性能とSLAを満たす実効コストが上がる”と置きます。これは公開情報をもとにした主観的レンジです。
需給逼迫そのものは 60〜70%。 最先端モデルや保証付き容量の高価格化は 35〜50%。 一般的なAI利用単価まで広く上がるのは 15〜25%。
つまり、「一部のAIが高くなる」はかなりあり得ますが、「AI全体が広く高くなる」は中程度以下です。
理由の1つは需要の強さです。Microsoft は FY2026 Q2 時点で「顧客需要が供給を上回る」と述べ、Alphabet も Google Cloud について「tight supply environment」と説明しています。Gartner は 2026 年の世界 AI 支出を 2.52 兆ドル、前年比 44% 増と予測し、AI インフラだけで 1.366 兆ドル、GenAI モデル支出は 80.8% 増と見ています。JLL は 2027 年に AI 推論需要が学習需要を上回る転換点を予想し、IEA はデータセンター電力消費が 2030 年に約 945TWh へ倍増するとしています。 (Microsoft)
ただし、供給側の投資意欲も非常に強いです。Alphabet は 2026 年 CapEx を 1750〜1850 億ドルと見込み、Meta は 1150〜1350 億ドル、Amazon は 2026 年に約 2000 億ドルの CapEx を投じるとしており、AWS 向け CapEx のかなりの部分には既に顧客コミットが付いています。Microsoft も FY2026 Q1 と Q2 の CapEx が合計 724 億ドルに達しています。Reuters は Alphabet・Amazon・Meta・Microsoft の 4 社で 2026 年に AI 関連インフラへ約 6500 億ドルを投じる見通しと報じています。つまり問題は「投資不足」より、「投資しても供給能力が立ち上がるまでに時間がかかる」ことです。 (Alphabet Investor Relations)
その立ち上がりを遅らせているボトルネックはかなり具体的です。Broadcom は 2026 年の TSMC 生産能力を bottleneck と見ており、TSMC 自身も 2026 年 4 月の決算説明会で advanced packaging capacity が “very tight” と述べました。Reuters は 2025 年末時点で SK hynix の 2026 年分 HBM が売り切れ、Samsung も 2026 年分顧客を確保済みと報じています。JLL は主要市場でグリッド接続待ちが 4 年超、建設案件の過半が 2025 年に 3 か月超遅延、建設パイプラインの 77% が事前契約済みとしています。CBRE でも北米主要市場の空室率は 1.4% まで低下し、欧州は 2026 年末に 6.5% まで低下見込みで、価格上昇圧力が続くと見ています。Texas では ERCOT の送電増強が 2030 年以降まで本格寄与せず、2028 年には予備率が負になる予測も出ています。DOE はデータセンター需要を近い将来の電力需要増の主要因と位置づけ、EPRI は米国で 2030 年にデータセンターが電力の 9〜17% を消費し得ると見ています。 (Reuters)
それでも「AI全体の広範な値上がり」を低めに見るのは、ベンダーが scarcity を一律値上げではなく、価格帯分離で吸収できるからです。現時点でも OpenAI の GPT-5.4 nano は入力 100 万トークンあたり 0.20 ドル・出力 1.25 ドル、Anthropic の Claude Haiku 4.5 は 1 ドル・5 ドル、Google の Gemini 3.1 Flash-Lite は Standard で 0.25 ドル・1.50 ドル、Flex/Batch では 0.13 ドル・0.75 ドルです。一方で保証付きの優先枠は高く、OpenAI の GPT-5.4 Priority は 5 ドル・30 ドル、Google の Gemini 3.1 Flash-Lite Priority は 0.45 ドル・2.7 ドルです。OpenAI は Priority processing と Scale Tier、Google は Provisioned Throughput を用意しており、Anthropic も現行主力モデルで Priority Tier を提供しています。つまり、逼迫が起きても最初に高くなるのは「低遅延・保証付き・大口」の層で、低価格帯モデルまで一斉に高くなるとは限りません。 (OpenAI)
いちばん起こりやすいのは「二層化」です。大規模学習、最先端推論、エージェントの本番運用、低遅延 SLA 付き容量は高値・長期契約・予約制に寄りやすい。一方で、汎用のチャット、バッチ処理、軽量推論は、安いモデルと安い処理モードに逃がせるので、名目価格は大きくは上がらない可能性が高いです。 (JLL)
確率を上振れさせる条件は、2026〜2027 年にエージェント型 AI の推論需要が予想以上に広がること、HBM と advanced packaging の緩和が 2027 年以降にずれ込むこと、そして電力・送電の制約が都市近郊でさらに厳しくなることです。逆に下振れ要因は、小型モデル・キャッシュ・バッチ処理への置き換えが進むことと、2027〜2030 に予定されているデータセンター/半導体 capacity expansion が予定通り立ち上がることです。 (Reuters)
結論だけ残すと、2026〜2028 のあいだに「需要増に供給の設備投資の実装が追いつかず、AIが高価になる」シナリオは、最先端モデルや保証付き容量では中〜高確率、AI市場全体では中程度以下です。私は、AI市場全体の広範な高価格化は 15〜25%、最先端モデルや保証付き容量に限った高価格化は 35〜50% くらいに置きます。 (Microsoft)