Teslaの自動運転1プロジェクトで原発0.5基分。AIデータセンター電力消費爆発のリアリティを超記述!
AI時代のAIデータセンターは著しく電力を食う存在である...。そのことは頭でわかるが、【その規模感】がどうにもわからない...というのがほとんどのビジネスパーソンだと思います。私も同じです。
例えば、動画生成AIで1秒の動画生成を行う際に、AIデータセンターの中で唸っているGPUが消費する電力は電子レンジを1時間連続で回し続けるのに等しい...。たった1秒の動画生成でさえそうですから、工場スケールのデジタルツインを24時間365日シミュレーションし続けるとその電力消費はどうなるのか?アメリカ戦争省が高度化させている「戦場のデジタルツイン」はどのぐらいの電力を食うのか?などなど。
最近は執筆活動でよくお世話になっているGemini Pro 3に解説させました。仕上がりが硬い報告書的な記事になってしまいましたが、これに文体調整の操作を加えるとせっかくの情報のディテールが失われることが分かりましたので、そのまま掲げます。実は以下の文章全体をWordファイルに落としてChatGPT 5.2にもリライトさせたのですが、情報ディテールが削ぎ落とされてしまうので、ここはディテールを重視して初出の原稿を掲げます。
灼熱のGPU都市=AIデータセンターが消費する巨大な「電力」。背景には3つの潮流があった
序章:雲(クラウド)の向こう側にある「物理的」な現実
私たちビジネスパーソンは、日々の業務で「クラウド」という言葉を無意識に使う。スマートフォンから放たれたリクエストは、あたかも空に浮かぶ雲の中に吸い込まれ、魔法のように答えを返してくるように感じられる。しかし、その「雲」の正体は、水蒸気でも魔法でもない。それは、地上のどこかに鎮座し、轟音を立てて回転する冷却ファンと、灼熱するシリコンチップの塊である。
今、この「物理的な実体」としてのデータセンターが、かつてないほどのエネルギー危機に直面している。「AIデータセンターの電力需要が鰻登りに増えている」というニュースは、単なるテクノロジー業界の話題ではない。それは、エネルギー政策、地政学、そして企業のコスト構造を根底から揺るがす「地殻変動」の予兆である。
なぜ、これほどまでに電力が足りなくなるのか。
多くの人は「ChatGPTのような生成AIが流行っているから」と考えるだろう。確かにそれは一因だ。しかし、全体像(マップ)を俯瞰すると、そこには偶然にも同時多発的に発生した、質も規模も異なる「3つの巨大な需要の波」が重なり合っていることがわかる。
-
民生用需要(Consumer AI):検索から生成へ、テキストから動画へとシフトする、80億人の欲望。
-
産業用需要(Industrial AI):物理世界を丸ごとデジタル空間にコピーし、常時シミュレーションし続ける製造と物流の野望。
-
政府・軍事用需要(Defense AI):国家の生存と覇権をかけ、コストを度外視して構築される防衛の頭脳。
本稿では、これら3つのセクターがいかにして膨大なGPUパワーを要求し、それが最終的にどのような電力消費の「地層」を形成しているのか、その全体像を徹底的に解き明かしていく。これは、単なる技術解説ではない。エネルギーという「通貨」を通して見る、現代社会の構造分析である。
第1章:民生用AI需要 ---- 「検索」から「生成」への転換が招くエネルギーの桁違い
私たちが日々触れているスマートフォンやPCの画面の向こう側で、インターネットの「質」が根本から変質しつつある。それは「情報の検索(Retrieve)」から「情報の生成(Generate)」へのシフトであり、この変化こそが、データセンターの電力消費を爆発させる最初のトリガーとなっている。
1.1 「ググる」コストと「GPTに聞く」コストの決定的な差
長年、IT業界におけるエネルギー効率のベンチマークは「Google検索1回分」であった。Googleは過去20年にわたり、検索アルゴリズムとデータセンターの効率化を極限まで突き詰めてきた。インデックス化されたデータベースからキーワードにマッチするリンクを引き出す処理は、驚くほど軽量である。
一方、大規模言語モデル(LLM)を用いた「生成」は、全く異なる計算プロセスをたどる。ユーザーの問いかけに対し、ニューラルネットワークの数千億ものパラメータを通過させ、確率的に「次に来るもっともらしい単語」を一語ずつ予測し、文章をゼロから構築する。この推論(Inference)プロセスには、検索とは比較にならない計算量が必要となる。
以下の表は、検索と生成のエネルギーコストを比較したものである。
| アクション | 推定消費電力 (Wh/回) | 従来の比較対象 | 倍率 (対 検索) |
| Google検索 | ~0.3 Wh | LED電球(10W) を約2分点灯 | 1x |
| ChatGPT (GPT-4クラス) | ~2.9 Wh - 5.0 Wh | スマートフォンを約3分間充電 | ~10-15x |
| 画像生成 (Stable Diffusion等) | ~2.9 Wh - 290 Wh | スマートフォンをフル充電 (1回〜数回) | ~100-1000x |
| 動画生成 (Sora, Runway) | 測定不能なほど高負荷 | 電子レンジを数十分〜1時間稼働 | 未知数 (数千倍以上) |
データが示す通り、AIによるテキスト回答の生成は、従来の検索の約10倍から15倍の電力を消費する
もし、世界中で行われている日々の検索行動(Googleだけで1日数十億回)がすべてAIチャットボットに置き換わったとしたらどうなるか。その電力需要の増加分だけで、アイルランドやスウェーデンのような中規模国家の年間消費電力を上回る可能性がある。これが、電力需要急増の「第一の波」である。
1.2 動画生成AI:「電子レンジ」を回し続けるに等しい負荷
テキスト生成でさえ10倍の負荷だが、OpenAIのSoraやRunway Gen-3といった「動画生成AI」の登場は、この議論をさらに深刻な次元へと引き上げた。
動画は、静止画の連続である。一般的に1秒間の動画には24枚から60枚の静止画が含まれる。単純計算でも、動画生成は画像生成の数十倍のコストがかかるように思えるが、実際には「時間的な整合性(Temporal Consistency)」を維持するための計算が必要となるため、その負荷は指数関数的に跳ね上がる。
最近の研究や試算によれば、数秒の動画をAIで生成する際の消費電力は、「電子レンジを長時間稼働させる」、あるいは「スマートフォンのフル充電数百回分」に匹敵するという衝撃的なデータも示されている
例えば、ある研究では、1枚の高解像度画像を生成するだけで0.29 kWh(290 Wh)を消費するケース(非効率なモデルの場合)も報告されている
これまで、私たちがYouTubeやNetflixで動画を「見る(ストリーミング)」際のコストは、主にネットワークのデータ転送と、端末の画面表示にかかる電力だった。しかし、動画を「作る(ジェネレーティブ)」世界では、データセンター側で膨大な数のGPUがフル稼働し、冷却ファンが唸りを上げているのである。Soraのようなモデルが一般開放され、誰もが気軽に動画を作り始めれば、その電力消費は予測不能な領域に突入する。
1.3 ジェボンズのパラドックス:効率化が需要を呼ぶ
「技術が進歩すれば、電力効率(Performance per Watt)は上がるはずだ」という楽観論もある。確かに、NVIDIAの最新チップ(Blackwell世代など)は、前世代よりも電力効率が良い。しかし、経済学で言う「ジェボンズのパラドックス」がここで作用する。
ジェボンズのパラドックスとは、「技術の進歩により資源の利用効率が向上すると、その資源の価格が下がり、結果として需要が増加し、資源の総消費量が増えてしまう」という現象である。
AI生成のコストが下がり、便利になればなるほど、人々はより気軽に、より大量にAIを使うようになる。かつては専門のクリエイターしか作らなかった動画を、今や小学生がプロンプト一つで生成する時代だ。また、Google検索では1回で済んだ行動が、AIチャットでは「対話」として何度もラリーが続く傾向がある。この「利用の裾野の爆発的拡大」と「行動の変容」が、チップ単体の効率向上を遥かに上回る総量としての電力需要を生み出している
さらに、AIモデル自体も巨大化の一途をたどっている。より賢いAI(推論能力の高いAI)を作るためには、より多くのパラメータと、より多くの学習データが必要となる。OpenAIの最新モデル「o1」シリーズのように、回答を出す前に「思考(Reasoning)」プロセスを挟むモデルも登場した。これは、ユーザーが待っている数秒間に、AIが内部で何度も推論を繰り返し、自己検証を行っていることを意味する。つまり、「より賢いAI」は「より電気を食うAI」なのである。
第2章:産業用AI需要 ---- 「デジタルツイン」という名の終わらないシミュレーション
民生用AIが、ユーザーがアクセスした時だけ計算する「一過性」の需要であるのに対し、産業界で進行しているAI革命は「常時接続・常時計算」の世界である。ここでは、現実世界を丸ごとデジタル空間にコピーし、シミュレーションし続ける「デジタルツイン」と、物理法則をAIに理解させる「フィジカルAI」が主役となる。
2.1 NVIDIA OmniverseとBMW iFACTORY:工場を「丸ごと」計算する
産業用AIの最前線を象徴し、かつ最も電力集約的な事例の一つが、NVIDIAとBMWグループの提携による「iFACTORY」の取り組みである
BMWは、ハンガリーのデブレツェンに建設した新工場をはじめ、世界中の生産拠点を「NVIDIA Omniverse」というプラットフォーム上でデジタルツイン化している。これは、単に工場の3Dモデルが画面に表示されているだけのCAD(設計支援ツール)とは次元が異なる。
関連投稿:
NVIDIA Omniverseで日本のモノ作りが変わる。ビフォーとアフターの違い3例
「見せる」ためではなく「計算する」ためのデジタル空間
Omniverse上の工場では、現実世界と同じ物理法則が支配している。
-
物理シミュレーション: ロボットアームの重さ、関節の摩擦、ケーブルのたわみ、部品がベルトコンベアから落ちた時の挙動などが、物理エンジンによってリアルタイムに計算されている。
-
フォトリアルなレンダリング(レイトレーシング): 工場内の照明、影、金属の反射が、現実と見紛うばかりの品質で描画される。これは人間の見た目のためだけではない。工場内を自律移動するAIロボットの「目(カメラセンサー)」が、光の反射や影をどう認識するかを検証するために、光の物理計算が不可欠だからである
。15
このシミュレーションには終わりがない。工場が稼働している間、あるいは次のライン変更を検討している間、デジタルツインはずっと計算を続ける。世界中の工場、数万人の従業員、数千台のロボットがこの仮想空間でシミュレーションされ続ける
NVIDIA OVX:デジタルツイン専用のスーパーコンピューター
この「全物理シミュレーション」を支えるインフラは、民生用のWebサーバーとは比較にならない。BMWのデジタルツインを動かすために、NVIDIAは「OVX」と呼ばれるデジタルツイン専用のサーバーシステムを提供している
OVXシステムには、L40Sのような、画像処理と物理演算に特化したハイエンドGPUがぎっしりと詰め込まれている
-
L40S GPU: 1基あたり数百ワットの電力を消費し、48GBのメモリを持つ。
-
常時高負荷(Always-on Compute): 民生用AIが「ユーザーが来た時だけ計算する」のに対し、デジタルツインは「工場が稼働している限り、常に物理演算をし続ける」。
この「24時間365日の常時高負荷」こそが、産業用AIの電力需要の正体である。工場の効率化によってリアルの電力は削減されるかもしれないが、その裏側でデジタルツインを維持するための計算コスト(電力)は確実に積み上がっていく。
2.2 テスラのDojo:自動運転という「巨大な脳」の育成
もう一つの産業用AIの巨塔が、自動運転(Autonomous Driving)である。テスラ(Tesla)は、世界中を走る数百万台の車両から送られてくる動画データを学習し、完全自動運転を実現するために、独自のスーパーコンピューター「Dojo(ドージョー)」を構築した
動画を食べる怪物:ExaPOD
自動運転AIのトレーニングには、画像ではなく「動画(ビデオ)」データの処理が必要となる。交差点での複雑な状況、歩行者の動き、天候の変化などを学習するには、ペタバイト級(ギガバイトの100万倍)の動画データをニューラルネットワークに流し込む必要がある。
テスラは、既存のGPU(NVIDIA製など)では効率が悪すぎると判断し、自社でAIトレーニング専用チップ「D1」を開発した。
-
D1チップ: 汎用的な機能を削ぎ落とし、AI行列演算に特化したチップ。1チップで約400Wの熱を放つ
。19 -
Training Tile: 25個のD1チップを1枚のウエハー上に統合したモジュール。これ1枚で15kW(一般家庭数軒分のピーク電力)を消費する
。19 -
ExaPOD: Training Tileを積み上げ、キャビネットに収めた最小構成単位。この1基の消費電力は約1.8メガワット(MW)に達する
。19
1.8MWという数字は、中規模のデータセンター全体の消費電力に匹敵する。テスラはこれを複数基運用し、将来的にはテキサスのギガファクトリーにおいて100MW、さらには500MWクラスの計算クラスター構築を示唆している
2.3 日立製作所 LumadaとエッジAI:日本型インフラDXの電力構造
日本の文脈では、日立製作所の「Lumada(ルマーダ)」が見逃せない事例である。日立は、鉄道、エネルギー、製造現場といった社会インフラ全体のデジタルツイン化を推進している
「止められない」社会インフラのツイン
-
鉄道のデジタルツイン: 車両の状態(振動、温度)、駅の人流、運行ダイヤ、天候、電力消費をリアルタイムで同期し、予知保全やダイナミックな運行管理を行う。
-
Data Hub: 現場のOT(制御技術)データとITデータを統合し、データレイクに蓄積・分析する基盤
。23
これらは、システムがダウンすることが許されないミッションクリティカルな領域である。鉄道網や電力網のデジタルツインは、24時間365日、途切れることなくデータを処理し続ける必要がある。日立のようなコングロマリットが推進するインフラDXは、一見地味に見えるが、日本全国の至る所で「常時稼働のAI推論」を走らせることになり、その積算電力は膨大なものとなる。
エッジの「目」がセンターの負荷を呼ぶ
ここで重要なのが、Himax Technologiesのような企業が提供する「超低消費電力AIセンサー(WiseEye)」の存在である
一見、これは省エネに貢献するように見える。しかし、マクロな視点で見ると、「エッジのセンサー爆発」は「センターの処理爆発」に直結する。
-
何億個ものエッジセンサーが社会にばら撒かれる。
-
それらが24時間、データを収集し、"意味のある"イベント(異常検知、特定人物の発見など)を抽出する。
-
抽出されたデータはクラウドやオンプレミスのデータセンター(Lumada等)に吸い上げられる。
-
データセンター側では、集まった膨大なデータを元に、より高度な分析や再学習、全域的なシミュレーションが行われる。
つまり、エッジ(末端)が賢くなればなるほど、センター(中枢)に送られるデータの質と密度が上がり、結果として中枢での計算需要が増大するのである。スマートメーター、見守りカメラ、工場のセンサー。これらすべてが、データセンターのGPUに燃料を供給するパイプラインとなっている。
第3章:政府・軍事用AI需要 ---- 「国家の存亡」をかけたコスト度外視の演算
民生用は「利益」のため、産業用は「効率」のために電力を消費する。しかし、政府・軍事用(Defense AI)は「生存」と「優位性」のために電力を消費する。ここではコスト意識が働きにくく、性能と速度が全てに優先されるため、最も電力密度の高いシステムが構築されやすい。
3.1 Palantirと米国防総省:戦場のデジタルツイン「AIP」
この分野の台風の目は、データ解析企業のPalantir(パランティア)である。彼らはウクライナ紛争や中東情勢において、AIプラットフォーム「AIP(Artificial Intelligence Platform)」や「Gotham」を配備し、現代戦の様相を一変させた
Project Maven(メイブン計画)とTITAN
Palantirが関与する米軍のプロジェクトは、まさに「戦場のデジタルツイン」構築である。
(今泉注:Palantirパランティアの組織スケールのAIシステムが何を行うものなのか?まだまだ全然理解されていない。弊投稿3本を参照。
【決定版】米政府を根本から変えている--防衛IT最大手PalantirはAIで何をやっている会社なのか?
Palantir(パランティア)オントロジーの凄まじい威力:中国レアアース禁輸発表の72時間後に米国が100%関税で完璧に報復できた理由
米軍は全兵士にGoogle Gemini政府バージョンを配布。AIパワードの軍隊に作り替えることを発表 )
-
Project Maven(メイブン計画): ドローンが撮影した数千時間のビデオフィードをAIがリアルタイムで解析し、砂漠やジャングルの中に隠れた敵性車両、兵器、人物を自動識別する
。32 -
TITAN(Tactical Intelligence Targeting Access Node): 米陸軍の次世代戦術ステーション。宇宙(衛星)、空(ドローン)、地上のセンサー情報を統合し、数秒で射撃目標を決定するシステム。Palantirはこのプロトタイプ開発と製造において主要な役割を果たしており、契約規模は1.78億ドル(約260億円)に達する
。33
これらが電力需要に与えるインパクトは「リアルタイム性」と「データ統合(Data Fusion)」にある。
異なるソース(衛星画像、通信傍受、SNS、レーダー)からのペタバイト級のデータを、遅延なく統合・解析し、地図上にプロットし続ける処理は、極めて高い演算能力を要求する。特に、戦場の霧の中で誤認識を避けるためには、複数のAIモデルを並列で走らせ、クロスチェックを行う必要があるかもしれない。これには膨大なコンピュート(計算資源)が必要となる。
3.2 JWCC:国防総省のクラウド爆買いと「非効率」な冗長性
米国防総省(DoD)は、Amazon (AWS)、Google、Microsoft、Oracleの4社と「JWCC(Joint Warfighting Cloud Capability)」という巨大なクラウド契約を結んでいる。上限90億ドル(約1.3兆円)にも及ぶこのプロジェクトは、米軍の全階層(本国から最前線の兵士まで)をクラウドで繋ぐものである
軍事用クラウドには、民生用にはない「エネルギー消費を増大させる特殊事情」がある。
-
物理的な分離と冗長性(Air-gapped Regions): 機密情報(Top Secret/SCI)を扱うため、インターネットから物理的に遮断された専用のデータセンターが必要となる。さらに、攻撃を受けても機能し続けるよう、過剰なまでのバックアップ(冗長性)が求められる。これは「効率」の対極にあり、同じ処理をするためにより多くのハードウェアを稼働させることを意味する
。37 -
戦術エッジでの推論: 戦車や無人機(ドローン)の内部にも、小型だが高性能なGPUサーバーが搭載される。これらはバッテリーや発電機で駆動するが、そのデータは最終的に後方の巨大データセンターと同期される。
「コストがかかるから画質を落とそう」という判断が民生用ならなされるが、ミサイルの迎撃判断や敵軍の識別において「計算リソースの節約」は許されない。軍事用AIの拡大は、最も電力効率を無視した(性能と生存性重視の)サーバー群が、国家予算という無尽蔵に近い資金で増設されることを意味する。
第4章:ハードウェアの現実と電力の全体像(マップ)
これら3つの需要(民生、産業、軍事)が、物理的なデータセンターの中でどのように積み重なっているのか、ハードウェアの視点から整理し、全体像(マップ)を描き出そう。
4.1 1ラックあたりの電力密度の急上昇:5kWから100kWへ
かつて、データセンターの1ラック(サーバー棚)あたりの消費電力は、5kW〜10kW程度で「高密度」と呼ばれていた
しかし、AI時代の主役であるNVIDIAのGPUサーバー(DGX/HGX H100など)は、その常識を破壊した。
-
NVIDIA H100 GPU: 1チップだけで最大700Wを消費する
。38 -
DGX H100サーバー: 8基のH100を搭載したこの1台のサーバーだけで、最大10.2 kWを消費する
。39 -
AI専用ラック: これを数台積み重ねたAI専用ラック(SuperPOD等)は、1ラックあたり40kW〜100kWという、従来の10倍近い熱と電力を放つ
。38
これはもはや「サーバー室」というよりは「巨大なヒーターの集合体」である。100kWの熱源といえば、業務用の大型オーブンを数十台同時にフル稼働させているようなものだ。もはや空気(エアコン)では熱を運び出すことが物理的に不可能になりつつあり、水や特殊な冷媒をチップに直接循環させる「液冷(Liquid Cooling)」が必須となっている。
4.2 需要のレイヤー構造(全体マップ)
ここで、今回のテーマである「なぜ鰻登りに増えるのか」の全体像をマップとして整理する。
| レイヤー | 主なプレイヤー / 用途 | 電力消費の特性 | 増加要因 (ドライバー) |
| 民生用 (Consumer) |
OpenAI, Google, Microsoft (ChatGPT, Sora, 検索AI) |
瞬発的・大量・波状 数十億人のユーザーが投げるクエリの数に比例。動画生成で単価が急騰。 |
「マルチモーダル化」 テキストから画像・動画へ。情報の解像度が上がり、計算量が指数関数的に増大。 |
| 産業用 (Industrial) |
NVIDIA, BMW, Tesla, Hitachi (Omniverse, Dojo, Digital Twin) |
持続的・安定的・高負荷 24/365のシミュレーション。物理演算とレイトレーシングによる常時計算。 |
「物理世界の完全コピー」 工場、都市、交通網のすべてをデジタル化し、リアルタイムで同期・予測するニーズの拡大。 |
| 軍事・政府 (Gov/Mil) |
Palantir, DoD (JWCC) (Project Maven, TITAN) |
必須・冗長・非効率 コスト度外視の性能追求。セキュリティのための非効率性も許容。 |
「AI軍備拡張競争」 AIの優劣が国家安全保障に直結するため、無限にリソースが投入される。 |
| 基盤 (Infrastructure) |
Data Centers (AWS, Azure, OCI) Power Grid |
物理的限界への挑戦 ラックあたり100kW超の熱処理。原発級の電力確保。 |
上記3つの総和 これらが同時にピークを迎えることで、送電網のキャパシティを圧迫。 |
4.3 「PUE」の壁と水資源の問題
電力だけでなく、データセンターの効率指標である「PUE(Power Usage Effectiveness)」の改善も限界に近づいている。PUEは「(IT機器の消費電力 + 冷却等の電力) ÷ IT機器の消費電力」で算出され、1.0に近いほど効率が良い。
GoogleなどはPUE 1.1(冷却に使う電力はIT機器の10%程度)という驚異的な数字を達成していた。しかし、AIチップの高発熱化により、冷却コストの削減が難しくなっている。さらに、液冷システムや蒸発冷却には大量の「水」が必要となる。
-
水消費: AIの学習や推論に伴う冷却で、GoogleやMicrosoftの水消費量が急増している(「ChatGPTとの対話1回で500mlペットボトルの水を消費する」という比喩もある)。
-
立地制約: 電力と水の両方が確保できる場所は限られている。これが、データセンター建設のボトルネックとなり、さらなる過密化(電力密度の集中)を招いている
。40
結論:電力はAI時代の「通貨」となる
「AIデータセンターの電力需要が鰻登りに増えるのはなぜか?」
その答えは、AIがもはや単なる「便利なソフトウェア」ではなく、「世界をシミュレーションし、生成し、制御するための巨大な物理エンジン」へと進化したからである。
-
民生用は、人類の創作活動と検索行動を「電気を食う推論」に置き換えた。かつての検索は図書館で本を探すようなものだったが、今のAI対話は、毎回賢者にゼロから本を執筆させているようなものである。
-
産業用は、工場の稼働と物流を「電気を食うシミュレーション」に依存させ始めた。現実を最適化するために、バーチャルな世界で何千回もの失敗(計算)を繰り返している。
-
軍事用は、国家の安全を「電気を食う監視と解析」に委ねた。見えない敵を見つけるために、空からの映像を全ピクセル解析し続けている。
これら全てが、NVIDIAのGPUという「燃焼室」の中で、電力という「燃料」を燃やして処理されている。PalantirのCEO、アレックス・カープが示唆するように、「AIの優位性は、単なるソフトの差ではなく、それを動かすインフラ(=ハードウェアと電力)の差」になりつつある
日本のビジネスパーソンにとって、このマップは「AIの進化」を見るだけでなく、「エネルギーの未来」を見るための羅針盤となる。AIへの投資は、実質的にエネルギーへの投資と同義になっていく。データセンターの立地、電力確保(再生可能エネルギーやSMRなどの原子力)、そして省電力技術(光電融合やエッジAIなど)の動向は、これからのAIビジネスの勝敗を分ける決定的なファクターになるだろう。
我々は今、情報革命の皮を被った「エネルギー革命」の真っ只中にいるのである。クラウドの向こう側にある物理的な轟音に、耳を傾けるべき時が来た。
参考文献・関連リンク
民生用AIと電力消費の急増
-
動画生成のエネルギー負荷について (
)https://www.cnet.com/tech/services-and-software/your-ai-videos-use-way-more-energy-than-chatbots-its-a-big-problem/ Mashable: Creating a 5-second AI video is like running a microwave for an hour -
生成AIと検索の電力比較
(Polytechnique Insights: Generative AI: energy consumption soars )https://www.zmescience.com/science/news-science/how-much-energy-chatgpt-query-uses/
産業用AI・デジタルツイン
-
NVIDIA & BMW (iFACTORY/Omniverse) (
) (https://www.nvidia.com/en-us/customer-stories/paving-the-future-of-factories-with-nvidia-omniverse-enterprise/ )https://nvidianews.nvidia.com/news/nvidia-launches-data-center-scale-omniverse-computing-system-for-industrial-digital-twins -
日立製作所 (Lumada / HMAX) (
)https://www.hitachirail.com/products-and-solutions/digital-asset-management/ Hitachi: Lumada Customer Co-creation -
その他 (Tesla, Himax) (
) (https://www.nextplatform.com/2022/08/23/inside-teslas-innovative-and-homegrown-dojo-ai-supercomputer/ )https://www.himax.com.tw/products/wiseeye-ai-sensing/wiseeye-solutions/
政府・軍事用AI