オルタナティブ・ブログ > Mostly Harmless >

IT技術についてのトレンドや、ベンダーの戦略についての考察などを書いていきます。

新時代のCPUアーキテクチャの方向性を示唆するNvidiaのGraceとApple M1

»

GPU(Graphics Processing Unit)大手のNvidiaが先週自社製のCPUを発表し、話題を呼んでいます。

"GPUのNVIDIA"がCPU製品「Grace」を投入、スパコンのAI性能が10倍に

とはいえ、GraceはArmベースのプロセッサであり、Nvidiaが一から独自に開発したCPUというわけではありません。Nvidiaは昔から自社のGPUとArmのプロセッサを組み合わせたSoCを作っており、Armベースのチップを作った、ということだけであればそれほど大きなニュースというわけでもないのです。

では、なぜ話題になっているのかというと、ひとつには昨年、NvidiaがArmの買収を発表したことが挙げられます。まだ関係機関の審査中ですが、Nvidiaの競合となる他のArm採用ベンダーから懸念や反対の声が上がっており、Nvidiaがこの時期に発表する新製品についてはどうしても市場の関心が集まってしまうということなのでしょう。

NVIDIAのArm買収、グーグルやマイクロソフトが米当局に懸念表明との報道

もうひとつは技術的な話です。GraceはArmが開発したサーバー向けのコアであるNeoverseを採用した、データセンター向けのプロセッサです。Armはこれまでサーバー向けを支配してきたIntel系のプロセッサに比べて省電力性に長けているのですが、今回の発表の肝は、Intelとは異なるアーキテクチャを採用したことです。NVIDIAのCEO、Jensen Huang氏のキーノートがWebに上がっていますが、

NVIDIA GTC 2021 Keynote Part 6: Amazing Grace - an ARM CPU for Giant-Scale AI and HPC

この中で氏は、これまでのIntelプロセッサを中心にしたコンピュータには大きなボトルネックがあった、と述べています。具体的には、データ転送の帯域幅です。

music_pipe_organ.pngHPCで大事なのは処理能力と転送能力

AI処理に限らず、大規模な科学技術計算などを行うHPC(High Performance Computing)では、プロセッサを高速にするだけでは全体の計算速度は上がりません。高速で処理を行うプロセッサに、十分な量のデータを共有できなければ、結果としてプロセッサが遊んでしまい、能力を活かしきることができないのです。このためスーパーコンピュータなどの設計においてはプロセッサとメモリ間のデータ転送をいかに高速に行えるかがプロセッサの高速化と同じくらい大事になります。日本が誇る「京」や「富岳」でも、富士通が開発した「Tofuインターコネクト」が重要な役割を担っています。

Nvidiaは、GPU処理の高速化のために、独自にこの帯域幅の拡大に取り組んできました。ビデオの中で氏は「DGXでは、個々のGPUには最大80GBの高速メモリが接続されており、2TB/秒の転送レートを実現している。それを最大4個相互に接続することで、最大320GBの容量を持ち、8TB/秒のデータ転送を実現できる。」と述べています。

しかし、GPU側に持たせられるデータの量には限りがあります。GPU側のデータを使い切ってしまったら、外部から読み込まなければなりません。そしてそのデータは、「CPUの向こう側」のメインメモリにあります。メインメモリが1TBあったとしても、その転送速度は0.2TB/秒に過ぎないというのです。これは、Intelが現在採用しているアーキテクチャではデータの転送にCPUが関与せざるを得ないためであり、これではGPUの能力を活かしきることはできません。

とはいえ、Intelが高速化のためだけにアーキテクチャを変えてくれるかというと、それはそれほど簡単ではありません。数がまとまれば話は違うのかも知れませんが、HPCのマーケットは数的にはそれほど多くないのです。IntelはHPCに特化するよりも、汎用性を重視したいと考えるでしょう。そこでNvidiaは、自分である程度自由に拡張できるArmを使い、データ転送の高速化にフォーカスしたCPUを作った、というわけです。

ここで思い出されるのが、昨年Appleが発表したM1チップです。高速性と省電力性が飛び抜けて高いM1ですが、その秘密の一部はメモリの構造にあります。

Appleの新M1チップの注目点はユニファイドメモリだ

ユニファイドメモリとは、従来とは異なるFabricと呼ばれる仕組みでメモリとGPU、NPU、DSPなどの間のデータ転送を行う構造です。その目的は「データ転送の高速化」であり、NvidiaのGraceと一致するのです。

最新のCPUアーキテクチャが目指すもの

つまり、ここ半年の間にこれまでとは異なるメモリアーキテクチャを採用したマイクロプロセッサが立て続けに発表されたということであり、これは、恐らくは今後のCPUアーキテクチャの方向性を示していると考えられます。

スパコンなどでは、CPUとメモリの間のデータ転送速度が早くから問題として認識されていました。初期のスパコンの代表例であるCray-1が何故円筒形をしていたかというと、CPUやメモリの基盤を外側に配して円筒の内側にデータ転送用のバスを配置することでデータ転送のための配線長をできるだけ縮めようとした、という話が残っています。45年前には最先端のコンピュータでなければ明るみに出なかった問題が、今ではマイクロプロセッサに取り入れられようとしているのです。

今では半導体の設計自体が簡単になっており、設計さえすれば製造はファウンダリで行ってもらえます。ArmやRISC-Vなどのオープンなアーキテクチャを使えば、様々な企業が自社の用途にあった様々なプロセッサを設計できるようになるでしょう。硬直化していたCPUアーキテクチャが、今後はどんどん多様化していくのではないでしょうか。

 

「DXはなぜわかりにくいのか?」 ITの最新トレンドをわかりやすく解説するセミナー・講演を承ります

figure_question.png経済産業省のレポートで触れられた「2025年の崖」が話題になっています。多くの企業がこれに取り組み、乗り越えようとしていますが、デジタルトランスフォーメーション(DX)の全体像が掴めず、有効な策を打ち出せずにいる企業も多いのではないでしょうか。バズワードに惑わされず、本質を見極め、自社にとっての最適な道筋を見つけるためには、DXの成り立ちや未来へのトレンドについてを理解しなければなりません。

アプライド・マーケティングでは、ITの技術トレンドを技術間の関係性と歴史の視点から俯瞰し、技術の本質を理解し、これからのトレンドを予測するためのセミナーや講演、研修を行っています。ブログでは少し難しい話も取り上げていますが、初心者様向けにかみ砕いた解説も可能です。もちろんオンラインにも対応できます。詳しくはこちらをご覧下さい。

BCN CONFERENCEでの基調講演が記事化されました

Comment(0)