AIサーバー需要増大で求められるデータセンターの液冷方式
AI(人工知能)の進化は、企業のビジネスモデルから学術研究、公共サービスにいたるまであらゆる領域に新たな価値をもたらしています。ビッグデータや高速演算により、社会問題の解決や新産業の創出が進む一方、インフラへの負荷も増大しつつあります。
中でも、AIサーバーの急増がもたらす消費電力と高熱量は、既存のデータセンター設備では対応が難しくなる可能性が高いと考えられます。電力をどう確保し、どのように冷却するかは、企業のDX(デジタルトランスフォーメーション)戦略のみならず、社会全体のインフラ基盤に直結する大きなテーマです。
こうした変化の波はすでに始まっており、市場予測を大幅に上回る速度で拡張が続いています。今回はAIサーバーに対する電力容量の増大と、液冷方式による冷却の重要性について取り上げたいと思います。
AIサーバー需要拡大の背景
AIサーバーが急速に必要とされる背景には、ビジネスや学術研究をはじめ、社会のあらゆる場面でAI技術が不可欠になりつつあることがあげられます。大量のデータを正確かつ高速に分析し、新しい価値を創出するためには、高性能なGPUや特殊チップを搭載したAIサーバーが必要となります。
クラウドサービスの普及により、個々の企業が独自に巨大な設備投資を行わなくても、必要なときに必要なだけ演算リソースを利用できる時代へと変化しました。しかし、AI活用が広がるほどクラウド上でも演算負荷が膨張し、データセンターへ集約されるサーバーの高性能化・高密度化が避けられなくなっています。
ハイパースケーラーと呼ばれる大規模クラウド事業者は、世界各地でAIインフラへの投資を続けてきましたが、日本国内でもその流れが加速しています。国内企業や研究機関が導入するAIサーバーは、政府の補助金プログラムなどの支援策も相まって、以前の予測を上回るスピードで増大しています。そのため、データセンター設備の見直しや増設が急務となり、高速通信網の整備や電力確保の問題が新たな課題として浮上しています。
AIサーバーは高性能な演算能力を持つ反面、従来のサーバーにはなかった大きな発熱量を伴います。これを十分に冷却するには、従来の空調方式だけでは対処しきれないケースが増えるため、今まであまり一般的ではなかった液冷方式が脚光を浴びるようになっています。
データセンターの電力容量は4年間で3.2倍に急増
IT専門調査会社IDC Japanによる2025年2月27日の発表によると、国内データセンターに設置されるAIサーバーが必要とする電力容量は、2024年末時点で合計67メガワットに達すると見込まれています。さらに2028年末には212メガワットまで増大するとされ、この4年間で約3.2倍もの拡大すると予測しています。
これほどの急増は、首都圏や関西などに相次いで建設されている大型データセンター5~8棟分に相当する規模だと指摘しています。
AIサーバー向け国内データセンター電力容量の推定結果を発表 ~電力容量は4年間で約3.2倍に~
急増の背景としては、まずハイパースケーラーの大規模投資があげられます。クラウドサービスを支えるAI基盤を拡充するため、世界的な事業者が国内でもデータセンターを建設し、大量のAIサーバーを設置しています。さらに政府補助金プログラムによる支援策も、国内のサービスプロバイダーや大学、研究機関などでAIサーバー導入を加速させています。以前は2027年に80~90メガワットの電力が必要になると予測されていましたが、そうした見通しを上回る速さで国内市場が拡大しているため、IDCは予測を大幅に上方修正しています。
AIサーバーの急拡大に伴い、消費電力と発熱量が跳ね上がることが予測されます。通常のサーバーでは想定していなかった電力配分や空調負荷がデータセンター全体に及び、大規模な設備改修が必要になります。急増する需要を受け止めるためには、電力インフラの強化だけでなく、効率的な熱処理技術が不可欠です。こうした状況が新たな市場機会を生む一方、設備投資や運用コストの面で、事業者はこれまでにない選択を迫られています。
データセンターへの液冷方式がもたらす課題と可能性
AIサーバーは1台あたりの消費電力が大きいだけでなく、そこから発生する熱量も膨大なため、従来の空気冷却だけでは十分な熱処理が難しくなるケースが予想されます。そこで注目されるのが液冷方式です。液冷方式では熱伝導率の高い液体を直接サーバー内部のコンポーネントに接触させる、もしくは熱交換器を介して冷却液を循環させることによって効率的に熱を奪う技術を用います。
液冷方式を導入することによって、サーバー内部の温度を空調方式よりも高速かつ安定的に下げることができる可能性があります。また、冷却効率の向上に伴い、必要な空調電力を削減できる可能性も考えられます。発熱量が高いハイパフォーマンスなサーバーを高密度に設置することが容易になるため、同じスペースでより多くのAIリソースを運用できる利点も得られるでしょう。
一方、液冷方式の導入にはリスクやコスト負担がつきまといます。新しい設備や配管を整備し、万が一液漏れが発生した場合の対策をあらかじめ用意しなければなりません。運用面でも、冷却液の交換・補充や部品のメンテナンスなど、従来の空調だけを使った仕組みとは異なる手間が発生します。
IDCの試算では、2028年末までに必要とされる212メガワット分のAIサーバーをすべて液冷方式で冷却することが望ましいという見解が示されていますが、実際に一気に導入するためには、多額の初期投資や人材育成が不可欠であると指摘しています。
国内ビジネスに与えるインパクトと懸念
AIサーバーの急拡大が国内ビジネスに与える影響には、期待されるメリットとともにいくつかの懸念があります。メリットとしては、AIを活用したサービスや製品は多岐にわたり、クラウド事業者やインフラ構築ベンダー、システム開発会社などにとって大きな受注機会が生まれます。またAI関連人材の需要が増えることで、雇用の拡大や専門的スキルの向上が進むことが期待されます。液冷方式などの新技術が普及すれば、日本の企業が世界の先端を行く技術力を身につけるきっかけになるかもしれません。
一方、懸念すべき点も多く存在しています。大きく増大した電力需要に対して、既存の電力インフラがどこまで安定供給を続けられるのかは未知数です。地域によっては送電網の強化や電源の多様化が欠かせず、こうしたインフラ整備のコストや時間をどう確保するかが課題になります。さらに、液冷方式への切り替えには相応の設備投資が必要で、メンテナンスや運用コストも増大します。
AIサーバー自体の価格が高くなる可能性もあり、ROI(投資対効果)が明確に見えないと導入をためらう企業が出るかもしれません。また、液冷方式やAIサーバー運用のノウハウを持つ技術者が不足している現状では、新しい技術を取り入れるスピードが追いつかず、市場成長に遅れが生じるリスクもはらんでいます。
今後の展望
今後4年間でAIサーバーが必要とする電力容量が約3.2倍に膨れ上がるという予測は、データセンター運用の在り方を根本から変える可能性があります。急増するAIサーバーを支えるためには、電力インフラの強化と新しい冷却技術の普及が欠かせません。再生可能エネルギーの活用やマイクログリッドの整備を進めることで、電力供給の安定性と環境負荷の低減を両立させる取り組みも進んでいくのかもしれません。
出典:IDC Japan 2025.2.27