オルタナティブ・ブログ > 経営者が読むNVIDIAのフィジカルAI / ADAS業界日報 by 今泉大輔 >

20年以上断続的にこのブログを書き継いできたインフラコモンズ代表の今泉大輔です。NVIDIAのフィジカルAIの世界が日本の上場企業多数に時価総額増大の事業機会を1つだけではなく複数与えることを確信してこの名前にしました。ネタは無限にあります。何卒よろしくお願い申し上げます。

ジェンセン・フアンがNVIDIA GTC 2026で語った「トークン経済」とトークンを製造する「AIファクトリー」

»

スクリーンショット 2026-03-18 3.13.31.png

NVIDIA GTC 2026のジェセン・フアンの基調講演をライブで観ました。2時間半。説明内容があまりに未来すぎるので、まだその技術アイテムが多数ありすぎるので、言葉を失ってしまいました。人類の未来が全部カバーされているではないか!という驚きと感嘆とある種の戦慄です。このNVIDIAの発表内容に乗っかることができる企業は間違いなく未来を作って行ける。しかし乗っかることができない企業は間違いなく市場から退出させられる。そういう凄みがある内容でした。

私は長く生きてきた人間で2000年代のWinTelの絶頂期を見ています(それ以前のPC9800の時代も)。あれからITの世界はクラウドの時代になり、iPhoneの時代になり、ChatGPTの時代になって来た訳ですが、「産業を根本から変革するインパクト」ではNVIDIAの垂直統合アーキテクチャとモジュール群は圧倒的です。英国から始まった産業革命が世界経済に与えた影響を0-100スケールの3だとすると、NVIDIAの垂直統合アーキテクチャとモジュール群がもたらす21世紀の産業革命がこれからの世界経済を動かしていく影響力は0-100スケールの100を超えて、2000ぐらいな感じです。

彼は"Token"という言葉でこれから来るAI経済のスケールを表していました。"Tokens per watt"(1ワット当たりの生成トークン数)が単位の経済です。電力を効率よくトークンに変える工場がファクトリーである。そのファクトリーこそがこれからの経済の主たる製造業になる。彼はAIデータセンターという言葉をもう使わずに、AI Factory(AIファクトリー)という言葉を使って説明します。次世代のAIデータセンター=AIファクトリーは最高の効率で電力をトークンに変える工場である...という捉え方です。

この「トークン」について日本のビジネスパーソンにわかりやすくGeminiが解説してくれたので以下にペーストします。

ジェンセン・フアン氏が語る「トークン(Token)」という言葉は、これからのAI経済を理解する上で最も重要な「単位」です。日本のビジネスマン向けに、製造業や流通業の概念に例えて分かりやすく解説します。

「トークン」とは何か?:AI時代の「製品」であり「通貨」

結論から言うと、トークンとは「AIが生み出す知能の最小単位」のことです。

1. 技術的な定義(材料・部品としてのトークン)

文章生成AI(LLM)において、AIは言葉をそのまま処理するのではなく、数文字程度の「塊」に区切って理解・生成します。この塊がトークンです。

  • 目安: 英語では1単語が約0.75トークン、日本語では漢字1文字が1〜2トークンに相当することが多いです。

  • イメージ: 料理で例えるなら、完成した「一皿の料理」がAIの回答だとすれば、トークンはそれを構成する「一口分の食材」のようなものです。

2. ビジネス的な定義(製品・在庫としてのトークン)

ジェンセン・フアン氏は、AIデータセンターを「AIファクトリー(知能の工場)」と呼んでいます。この文脈において、トークンは「工場から出荷される製品」そのものです

  • 従来の工場: 鉄鋼や電力を投入して「自動車」や「部品」を作る。

  • AIファクトリー: 電力とデータを投入して「トークン(知能)」を作る。

顧客はAIを利用する際、このトークンを購入していることになります(API利用料などは「100万トークンあたり◯円」という値付けが一般的です)。

なぜ「Tokens per Watt(1ワットあたりのトークン量)」が重要なのか?

製造業のビジネスマンにとっての「電力原価」や「エネルギー効率」と全く同じ意味です。

  1. 知能の製造コスト: AIファクトリーの最大の運営コストは「電気代」です。1ワットの電力でどれだけ多くのトークン(製品)を作れるかという指標は、製造業における「電力あたりの生産高」や「燃費」に相当します 。

  2. 収益の源泉: フアン氏は「AIファクトリーの収益は、Tokens per Wattに等しい」と述べています 。効率よくトークンを作れるインフラ(RubinやDSX)を持つ企業ほど、他社よりも安く、大量に「知能」を市場に供給でき、高い利益率を確保できるからです。(今泉注:ここでジェンセン・フアンはAI半導体において追い上げてくるAMDや中国の競合に対する新しい戦いを仕掛けている。つまり、Tokens per Wattを競争軸にすることで、垂直統合アーキテクチャを持つNVIDIAには競合は絶対に敵わないという競争軸。)

  3. トークン・バジェット(予算): 将来の企業活動では、宣伝費や交際費と同じように「トークン予算」という概念が登場すると予測されています。自社でAIエージェントを動かすために、どれだけのトークンを消費(製造)できるかが、企業の競争力を左右することになります (今泉注:それだけ経済の主軸がAI経済になって行くということ。)

まとめ:ビジネスマンのための用語解説

  • トークン: AIが生産する「知能のパケット」。AI工場の「出荷製品」。

  • トークン・エコノミー: 知能がデジタルな商品として大量生産・流通・消費される経済圏。

  • Tokens per Watt: AI工場の「生産効率」。この数値が高いほど、安く賢いサービスを提供できる。

つまり、ジェンセン・フアン氏が「Tokens per Wattを最大化する」と言っているのは、「世界で最も安く、大量に『知能』を製造できるプラットフォームを提供する」と宣言しているのです。

さて、このトークンを無数に生み出すAIファクトリー(次世代のAIデータセンタ)でどえらいことが起こりました。ジェンセン・フアンの基調講演では、「次世代AIファクトリーをOmniverseのデジタルツイン空間で設計するためのプラットフォーム(Omniverseで効率よくAIファクトリーを設計するためのBlueprint=テンプレート)である『DSX』」が発表されました。

DSXがAIデータセンター業界にもたらす決定的なインパクトです。

これについては別な投稿で書きます。1アイテム、1アイテム、ゆっくり行きましょう。

2026
4/8 (水) 13:00-
※会場開催なし
オンライン受講
【AIブーム第2幕の市場全貌とメカニズム】

AIデータセンター電力インフラ特需と
日本企業の勝算
~AI特需の全体像と「グリッド・バイパス」の衝撃~

【対象:電力・インフラ関連の経営企画・事業戦略・営業統括】

  • 「グリッド・バイパス」とオンサイト発電(ガスタービン再評価)
  • 変電ボトルネック(トランス枯渇)と特高受電における勝算
  • 「800VDC配電」への変革と次世代電源コンポーネント特需
  • 「空冷の限界」を突破する液体冷却・光インターコネクト

講師:今泉 大輔(株式会社インフラコモンズ 代表)

主催:情報機構

NVIDIA Releases Vera Rubin DSX AI Factory Reference Design and Omniverse DSX Digital Twin Blueprint With Broad Industry Support

スクリーンショット 2026-03-18 3.09.27.png

生資料:GTC 2026でジェンセン・フアンが語った「トークン経済」に関するトランスクリプトと和訳

..last year at this time I said that where I stood at that moment in time we saw about $500 billion dollars of very high confidence demand and purchase orders for Blackwell and Reuben through 2026 i said that last year now I don't know if you guys feel the same way but $500 billion is an enormous amount of revenue not one impressed i know why you're not impressed because all of you had record years. well I'm here to tell you that right now where I stand a few short months after GTCDC one year after last GTC right here where I stand I see through 2027 at least $1 trillion. Now does it make any sense and that's what I'm going to spend the rest of the time talking about in fact we are going to be short i am certain computing demand will be much higher than that and there's a reason for that. so the first thing is um we did a lot of work in the last year of course as you know 2025 was NVIDIA's year of inference we wanted to make sure that not only were we good at training and post- training that we were incredibly good at every single phase of AI so that the investments that were made investments made in our infrastructure could scale out for as long as they would like to use it and the useful life of Nvidia's infrastructure would be long and therefore the cost would be incredibly low the longer you could use it the lower the cost. there's no question in my mind Nvidia systems are the lowest cost infrastructure you could get for AI infrastructure in the world.

and so the first part was last year was all about AI for inference and it drove this inflection point simultaneously we were very pleased last year that Anthropic has come to Nvidia that MSL Meta SL has chosen Nvidia. and meanwhile meanwhile and as a collection as a group this represents onethird of the world's AI compute open- source models open-source models have reached near the frontier and it is literally everywhere. and Nvidia as you know today we're the only platform in the world today that runs every single domain of AI across every single one of these AI models in language and biology and computer graphics computer vision and speech proteins and chemicals robotics and otherwise edge or cloud any language NVIDIA's architecture is funible for all of that and we're incredible for all of that that allows us to be the lowest cost the highest confidence platform. because when you're building these systems as I mentioned a trillion dollars is an enormous amount of infrastructure you have to have complete confidence that the trillion dollars you're putting down will be you utilized would be performant would be incredibly cost-effective and have useful life for as long as you could see. that infrastructure investment you could make on Nvidia you could make with complete confidence we have now proven that it is the only infrastructure in the world that you could go anywhere in the world and build with complete confidence. you want to put it in any of the clouds we're delighted by that you want to put it on prem we're happy about that you want to put it in any country anywhere we're delighted to support you we are now a computing platform that runs all of AI.

now our business already starting to show that 60% of our business is hyperscalers the top five hyperscalers however even within that top five hyperscalers some of it is internal AI consumption. the internal AI consumption really important work like Rexus is moving from recommener systems of tables and collaborative filtering and content filtering it's moving towards deep learning and large language models search moving to deep learning large language models almost all of these different hypers scale workloads are now moving shifting towards a workload that Nvidia GPUs are incredibly good at. but on top of that because we work with every AI lab because we work with every we accelerate a every AI model and because we have a large ecosystem of AI natives that we work with that we can bring to the clouds that investment no matter how large no matter how quick that compute will be consumed and that represents 60% of our business. the other 40% is just everywhere regional clouds sovereign clouds enterprise industrial robotics edge big systems supercomputing systems small servers enterprise servers the number of systems incredible the diversity of AI is also its resilience the span of reach of AI is its resilience there is no question this is not a one app technology this is now fundamental this is absolutely a new computing platform shift.

well our job is to continue to advance the technology and one of the most important things that I mentioned last year was last year was our year of inference we dedicated everything we took a giant chance and reinvented while Hopper was at its prime and it was just cooking. we decided that the Hopper architecture the MVL link by 8 had to be taken to the next level we completely rearchitected the system disagregated the computing system alto together and created MVLink 72 the way that it's built the way it's manufactured the way it's programmed completely changed. grace Blackwell MVLink72 was a giant bet and it wasn't easy for anybody and many of my partners here in the room i want to thank all of you for the hard work that you guys did thank you. mvlink72 MV FP4 not just FP4 precision FP4 is a whole different type of tensor core and computational unit we've demonstrated now that we can inference NVFP4 without loss of precision but gigantic boost in performance and energy efficiency. we've also been able to use MVFP4 for training so MVLink72 MVFP4 the invention of Dynamo Tensor RTLM a whole bunch of new algorithms we even built a supercomputer to help us optimize kernels and help us optimize our complete stack we call it DGX cloud we invested billions of dollars of supercomputing capability help us create the kernels the software that made inference possible.
@@@
昨年の今頃、当時の私の立場から見て、2026年までにBlackwellとRubinに対して約5,000億ドルという非常に確度の高い需要と発注書が見込める、と私は言いました。そう、昨年のことです。皆さんが同じように感じているかは分かりませんが、5,000億ドルというのは莫大な収益額です。誰も驚いていませんね。なぜ皆さんが驚かないのかは分かっています。皆さんの誰もが記録的な年を迎えていたからですさて、今日私がここでお伝えしたいのは、GTC DCからわずか数ヶ月後、そして前回のGTCから1年後の現在、私の立場から見て、2027年までに少なくとも1兆ドルが見込めるということです
これが理にかなっているのかどうか、それこそが私が残りの時間を使ってお話しすることです。実際のところ、これでも(見積もりとしては)足りないでしょう。計算需要はそれをはるかに上回ると確信しており、それには理由があります。第一に、私たちは昨年多くの取り組みを行いました。ご存知の通り、2025年はNVIDIAにとって「推論の年」でした。私たちはトレーニングやポストトレーニングにおいて優れているだけでなく、AIのあらゆる段階において信じられないほど優れていることを確実にしたかったのです。そうすることで、当社のインフラストラクチャに行われた投資が、ユーザーが望む限り長くスケールアウトでき、NVIDIAのインフラの耐用年数が長くなり、結果としてコストが驚くほど低くなるようにしたかったのです。長く使えるほど、コストは下がります。NVIDIAのシステムが、世界中のAIインフラストラクチャにおいて入手可能な最も低コストなインフラであることは、私の中では疑う余地がありません
第一の点は、昨年はすべてが「推論のためのAI」に関する年であり、それがこの変曲点(インフレクション・ポイント)を推進したということです。同時に私たちは昨年、AnthropicがNVIDIAにやって来たこと、そしてMSL(Metaのオープンソースモデル)がNVIDIAを選んだことを非常に嬉しく思っています。一方で、これらはグループとして、集合的に世界のAIコンピューティングの3分の1を占めています。オープンソースモデルは今やフロンティア(最先端)に近づいており、文字通りあらゆる場所に存在しています。ご存知の通り、今日のNVIDIAは、言語、生物学、コンピュータグラフィックス、コンピュータビジョン、音声、タンパク質、化学、ロボティクス、エッジ、クラウド、どんな言語であっても、これらすべてのAIモデルのあらゆる領域を実行できる世界で唯一のプラットフォームです。NVIDIAのアーキテクチャはこれらすべてにおいて代替可能(汎用的に対応可能)であり、これらすべてにおいて驚異的な性能を発揮します。これが、私たちが最も低コストで、最も信頼性の高いプラットフォームであることを可能にしているのです
なぜなら、先ほど申し上げたように、1兆ドルというのは膨大なインフラストラクチャであり、これらのシステムを構築する際、投じる1兆ドルが確実に利用され、高いパフォーマンスを発揮し、信じられないほど費用対効果が高く、見通せる限り長い耐用年数を持つという完全な確信を持てなければならないからです。NVIDIAに対するそのインフラ投資は、完全な自信を持って行うことができます。私たちは今や、世界中どこへ行っても完全な確信を持って構築できる、世界で唯一のインフラであることを証明しました。どのクラウドに配置したいとしても私たちは喜んで対応しますし、オンプレミスに配置したいとしても喜ばしいことです。世界中のどの国、どの場所に配置したいとしても、喜んでサポートさせていただきます。私たちは今や、AIのすべてを実行するコンピューティングプラットフォームなのです
現在、当社のビジネスはすでに、ビジネスの60%がトップ5のハイパースケーラーであることを示し始めていますしかし、そのトップ5のハイパースケーラーの中でさえ、一部は内部でのAI消費によるものです。その内部でのAI消費、例えばRecSys(レコメンデーションシステム)のような非常に重要なワークロードは、テーブルや協調フィルタリング、コンテンツフィルタリングから、ディープラーニングや大規模言語モデルへと移行しています。検索機能もディープラーニングや大規模言語モデルへと移行しています。これらすべての様々なハイパースケールワークロードのほぼすべてが現在、NVIDIAのGPUが非常に得意とするワークロードへとシフトしているのです。しかしそれに加えて、私たちがすべてのAIラボと協力し、すべてのAIモデルをアクセラレートし、そして私たちが協力してクラウドに提供できるAIネイティブの大規模なエコシステムを持っているからこそ、その投資がどれほど大きく、どれほど早くても、その計算能力は消費されていくのです。そしてそれが当社のビジネスの60%を占めています
残りの40%は、まさにあらゆる場所に存在します。リージョンクラウド、ソブリンクラウド、エンタープライズ、インダストリアル、ロボティクス、エッジ、大規模システム、スーパーコンピューティングシステム、小型サーバー、エンタープライズサーバーなど、システムの数は信じられないほどです。AIの多様性はAIのレジリエンス(強靭さ)でもあります。AIの到達範囲の広さこそが、そのレジリエンスなのです。これが単なる1つのアプリケーションのための技術ではないことは疑いようがありません。これは今や根本的なものであり、間違いなく新しいコンピューティングプラットフォームへのシフトなのです
さて、私たちの仕事はテクノロジーを前進させ続けることです。昨年お話しした最も重要なことの一つは、昨年が私たちにとって「推論の年」であったということです。私たちはすべてを捧げ、大きな賭けに出て、Hopperが絶頂期にあり絶好調だった時期に、あえて再発明を行いました。私たちは、Hopperアーキテクチャである8基のNVLinkを次のレベルへ引き上げなければならないと決断しました。システムを完全に再設計し、コンピューティングシステムを完全に分離(ディスアグリゲート)し、NVLink 72を作り上げました。その構築方法、製造方法、プログラミング方法は完全に変わりました。Grace BlackwellとNVLink 72は巨大な賭けであり、誰にとっても簡単なことではありませんでした。この会場にいる多くのパートナーの皆さん、皆さんの多大な努力に感謝したいと思います。ありがとうございます
NVLink 72、NV-FP4。単なるFP4精度ではなく、FP4は全く新しいタイプのTensorコアであり、演算ユニットです。私たちは今、NV-FP4を使うことで、精度を落とすことなく推論を実行でき、同時にパフォーマンスとエネルギー効率を劇的に向上させることができると実証しました。また、NV-FP4をトレーニングに使用することも可能になりました。NVLink 72、NV-FP4、Dynamo TensorRT-LLMの発明、そして数々の新しいアルゴリズム。私たちは、カーネルを最適化し、当社の完全なスタックを最適化するのを支援するためのスーパーコンピューターまで構築しました。これを「DGX Cloud」と呼んでいます。私たちは、推論を可能にするカーネルやソフトウェアを作成するために、数十億ドルを投じてスーパーコンピューティング能力に投資しました
そして、そのすべての結果が一つに結実しました。かつて人々は私に「でもジェンセン、推論なんてとても簡単じゃないか」と言っていました。推論は究極に困難です。推論は究極に難しいのです。そしてまた、それは皆さんの収益を生み出すため、究極に重要なものでもあるのです。そして、これがその結果です。これはSemiAnalysisからのデータで、これまでに行われた中で最大かつ最も包括的なAI推論の調査結果です。ここで皆さんから見て左側、こちらの側にあるのが「ワットあたりのトークン数(Tokens per watt)」です
「ワットあたりのトークン数」は重要です。なぜなら、すべてのデータセンター、あらゆるファクトリーは定義上、電力に制約があるからです。1ギガワットのファクトリーが2ギガワットになることは決してありません。原子の法則、物理の法則によって物理的に制約されているのです。そのため、その1ギガワットのデータセンターにおいて、皆さんはトークンの最大数を生み出したいと考えます。それがそのファクトリーの生産物であり、製品だからです。ですから、皆さんはその曲線の頂点、できるだけ高い位置にいたいと思うはずです
このX軸はインタラクティビティ、つまり推論のスピード、それぞれの推論の速度を表しています。推論が速ければ速いほど、当然ながらより速く応答することができます。しかし非常に重要なのは、推論が速ければ速いほど、より大きなモデルで、より多くのコンテキストを処理し、より多くのトークンを思考できるということです。この軸はAIの「賢さ(スマートさ)」と同じです。つまり、こちらがAIのスループットであり、これがAIの賢さです。AIが賢くなるほどスループットが低下することに注目してください。思考に時間がかかるわけですから理にかなっていますね。そしてこれがスピードの軸です
後ほどこれについて再び触れます。これは重要です。私が皆さんを責め立てるような部分ですが、あまりにも重要なので話します。見ていてください、世界中のすべてのCEOが今後、私がこれから説明するような方法で自社のビジネスを研究することになるでしょう。なぜなら、これが皆さんのトークンファクトリーであり、皆さんのAIファクトリーであり、皆さんの収益そのものだからです。今後、そのことに疑いの余地はありません
そしてこれがスループットであり、これがインテリジェンスです。データセンターの所定の電力に対してワットあたりのパフォーマンス(perf per watt)が優れているほど、スループットが高くなり、より多くのトークンを生産できます。こちら側はコストです。NVIDIAが世界で最も高いパフォーマンスを発揮していることに注目してください。これには誰も驚かないでしょうが、人々が驚くのは次のような事実です。ムーアの法則であればトランジスタによって1世代で50%の向上、あるいはムーアの法則の2倍のペースだとしてもおそらく1.5倍のパフォーマンス向上をもたらしたでしょう。つまりHopper(H200)から1.5倍の向上を予想したはずです。誰も35倍もの向上を予想しなかったでしょう
昨年の今頃、私はNVIDIAのGrace Blackwell NVLink 72はワットあたりのパフォーマンスが35倍になると言いましたが、誰も信じてくれませんでした。その後、SemiAnalysisのレポートが発表され、ディラン・パテル(Dylan Patel)の言葉がありました。彼は私を「サンドバッギング(わざと控えめに言っている)」だと非難しました。彼は『ジェンセンは控えめに言った。実際は50倍だ』と言ったのです。そして、彼は間違っていません。彼は間違っていません。だからこそ、私たちのトークンあたりのコスト、そうです、当社のトークンあたりのコストは世界で最も低いのです。これには敵いません
私は以前にも言いましたが、もし間違ったアーキテクチャを選んでしまったら、たとえそれが無料だったとしても、十分に安いとは言えません。なぜなら、何があろうともギガワット規模のデータセンターを建設しなければならず、ギガワットのファクトリーを建設しなければならないからです。そしてそのギガワットのファクトリーの15年間の償却費用は、中に何も入れなくても約400億ドルかかります。何もない状態でも400億ドルかかるのです。だからこそ、そこに最高のコンピューターシステムを確実に導入して、最高のトークンコストを実現できるようにすべきです。NVIDIAのトークンコストはワールドクラスであり、現時点では基本的に他の追随を許しません。そして、それが事実である理由は「極限の協調設計(エクストリーム・コデザイン)」によるものなのです

Comment(0)