ソフトバンク国産AIサーバー開発の基礎知識 : NVIDIA系GPUサーバー主要各社の戦略
↑独特の筆致に味があるアナログイラストはさっつーの作者ソラガスキが制作。
ソフトバンクが国産AIサーバーを開発することが発表されました。NVIDIAやFoxconn(鴻海精密工業)と協業することが報じられています。
Seizo Trend: ソフトバンクが国産AIサーバー製造へ、米NVIDIAや台湾のFoxconnと協議 - 国内完結型の「ソブリンAI」戦略を加速 - (2026/5/12)
さて、どのようにすればソフトバンクが国産AIサーバーを製造販売できるのでしょうか?それを理解するカギになるのが、既存の主要AIサーバー = GPUサーバー各社の事業展開がどうなっているか?を理解することです。
以下のレポートは2025年3月中旬に作成したものですが、GPUサーバーの中身のAI半導体は今でもNVIDIA Blackwell系。全く古くなっていませんので、このレポートをお読みになって、ソフトバンクが計画していることを推察してみてはいかがでしょうか?50本近い英文資料を取りまとめています。
関連投稿:
NVIDIAのAIデータセンター事業の研究。脅威の営業利益率60〜70%を叩き出す構造
ソフトバンク国産AIサーバー開発の基礎知識 : NVIDIA系GPUサーバー主要各社の戦略
ハイライトの引用
2. Blackwellプラットフォームの構造:GB200/GB300 NVL72
2.1. ラックを一つのGPUとして定義するNVL72アーキテクチャ
Blackwell世代の主力製品であるGB200およびGB300 NVL72は、36基のGrace CPUと72基のBlackwell GPUを単一のラックに統合した、完全液冷式のプラットフォームである 5。第5世代のNVLink Switch Systemにより、ラック内の全72基のGPUが広帯域・低遅延で相互接続され、全体で「1.4エクサフロップスの演算性能を持つ巨大な単一GPU」として機能する 4。
このアーキテクチャの核心は、130TB/sに達するNVLink帯域幅にある。これにより、混合精度(Mixed-precision)トレーニングや、Mixture-of-Experts(MoE)モデルにおける頻繁なオールツーオール通信を、ネットワークアダプタを介さずにラック内で完結させることができる 9。
2.2. コンピュート・トレイとスイッチ・トレイの詳細構成
DGX GB200/GB300ラックの内部構造は、高度にモジュール化されている。
- コンピュート・トレイ: 1Uサイズのトレイに2基のGrace CPUと4基のBlackwell GPUを搭載する 10。Grace CPUは72個のArm Neoverse V2コアを持ち、GPUとはNVLink-C2Cで接続されている。この構成により、CPUメモリ(LPDDR5X)とGPUメモリ(HBM3e)がコヒーレントに統合され、大規模データの処理を効率化している 6。
- NVLinkスイッチ・トレイ: 各ラックに9基のスイッチ・トレイが搭載され、合計18基のNVSwitchを構成する 11。各スイッチは72個のNVLinkポートを持ち、200Gbps(SerDes)のシグナリングレートで動作する 10。
- 物理インターコネクト: ラック背面には1,728本の銅製Twinaxケーブル(長さ最大2m)が張り巡らされており、光トランシーバの消費電力を排除しつつ、極低遅延なインターコネクトを実現している 10。