オルタナティブ・ブログ > 『ビジネス2.0』の視点 >

ICT、クラウドコンピューティングをビジネスそして日本の力に!

「エージェンティックAI」で激変するAIサーバー市場

»

生成AIブームは一段落し、企業は「AIモデルを作る段階」から「AIで利益を生む段階」へシフトしつつあります。巨大モデルの学習は費用対効果が下がり、かわって"エージェンティックAI"やファインチューニング、推論(インファレンシング)の需要が伸びています。これにより、GPUを大量に並べた従来型クラスタだけでなく、推論に最適化した省電力サーバーやGPU専用クラウドが急成長しています。

今回はABI Researchが2025年5月14日に発表した「Agentic AI and Inferencing Drive AI Server Market to US$523 Billion by 2030, Despite Tariff Pressures」の資料をもとに、市場の背景、動向、課題、今後の展望を整理します。

学習偏重から多層型インフラへ

ここ数年、AIサーバーは巨大言語モデルの学習を目的に導入され、GPUクラスタの需要が爆発的に伸びました。しかし学習効率は頭打ちとなり、投資額に見合う成果が出にくくなっています。

ABI Researchは、学習用サーバーの伸びが2025年以降鈍化し、2030年には市場の半分以上を推論やファインチューニング向け機種が占めると予測しています。高速ネットワークや大容量メモリを備えたサーバーが注目され、CPUと省電力GPUを組み合わせた構成も増えています。

エージェンティックAIが推論需要を押し上げ

エージェンティックAIは、複数の小さな専門モデルを組み合わせ、タスクを自律的に分解・実行する手法です。リアルタイムで判断を更新するため、従来のバッチ推論では応答が遅れます。その結果、低レイテンシで動く推論特化サーバーのニーズが急増しています。

ABI Researchは、エージェンティックAI関連サーバーの売上が2024年の数十億ドルから2030年には1,450億ドルを超えると試算しています。推論効率を高めるソフトウェアも重要になり、NVIDIA TensorRTやIntel OpenVINOが差別化要因になっています。

ハイパースケーラーとネオクラウドの連携

AWSやMicrosoft、Googleなどのハイパースケーラーは、2025年に設備投資(CAPEX)を増やし、GPUサーバーの調達を再加速させる計画です。同時に、CoreWeaveやNebiusといったGPU専用クラウド(ネオクラウド)が台頭し、短期レンタルや時間課金で研究機関やスタートアップを取り込んでいます。

これにより、DellやSupermicro、Cisco、HPEなどが恩恵を受け、CPUオンリー機でもAI処理をこなす製品群が拡充しています。

貿易障壁とサプライチェーンの分断リスク

米国は先端半導体の対中輸出規制や追加関税の再導入を示唆しており、GPU製造やサーバー組み立てに影響を与える可能性があります。

ABI Researchは、最悪の場合2030年の市場規模が8〜10%縮小するシナリオも想定しています。一方、中国やASEAN諸国は自国内でのサーバー製造を強化し、補助金で後押しする動きを見せています。部材コストの上昇や納期遅延のリスクを減らすため、企業はマルチベンダー調達と在庫戦略の見直しが必要となっています。

今後の展望

2030年までにAIサーバー市場は「巨大モデル学習の成熟」と「推論・エッジ分散」の二極化が進んでいくことが予想されますが、AIサーバー市場はますます加速していくことになるでしょう。

Comment(0)