プラットフォーマーがプロセッサ開発を手掛け始めた
先週はAmazonのre:Inventをやっていて、いろいろな発表がありました。中でも気になったのが、Amazon自社開発のプロセッサ2種(サーバー用とAI用)の発表です。
AmazonはIntelからカスタムプロセッサの供給を受けており、AMDとも専用プロセッサを共同開発していたはずですが、いつの間にか自前のプロセッサを作っていたのですね。
GoogleがAI専用プロセッサのTPUを開発し、MicrosoftもFPGAベースのAI処理基盤を作るなど、プラットフォーマーが自社でプロセッサを開発する例が増えています。昔は、ハードウェアは外部調達するものでしたが、その常識が変わり始めたようです。
Armのライセンスを取得すれば、スクラッチからプロセッサを設計せずとも、独自の機能を盛り込んだ自社専用のプロセッサを簡単かつ安価に開発することができます。Appleは2010年にA4を発表して以降、Armベースの自社開発プロセッサを使っていますが、これで外部のプロセッサベンダーのロードマップに引きずられずに、自由にソフトウェア・サービスと一体となったハードウェアを設計できるようになりました。iPhone4で採用されたA4は、同時期の他社のArmベースプロセッサよりもクロックあたりパフォーマンスが高く、他社との差別化要因となりました。昨年発表されたA11、今年のA12では他社に先駆けてAI処理専用のプロセッサを組み込み、来たるべきAI時代に備えています。
Armのメリット
今回AmazonがArmベースのプロセッサの自社開発に踏み切ったのは、そもそもクラウドサービスはLinuxベースであり、プロセッサに依存しないことが大きいと思われます。オンプレミスとの互換性を考えるとIntel/AMDが良い場合も多いでしょうが、Linuxは遙か昔からArmに対応しており(ガラケーのFOMAにもLinuxモデルがありましたし、AndroidもLinuxです)、クラウドサービスを提供する分には全く問題はありません。
Armを採用することのメリットは、コストと省電力性能です。IntelはAmazon向けにカスタムCPUを供給していますが、元々高いCPUですから、カスタムでも調達コストはそれほど安くないと思われます。一方でAmazonはAMDとも専用プロセッサの共同開発を行っていたようですが、性能が思ったように出ず、諦めて自社開発に舵を切ったようです。それに、AMDからの調達コストもIntelと似たようなものでしょう。(もちろんIntelよりは安いでしょうが)Armなら、一定の数量さえ確保できれば、コストはかなり安く抑えられるはずです。
そして、データセンターでは消費電力の増加とそれに伴う発熱量の増加が問題になっています。電気を使ってコンピュータを動かし、それを冷やすためにまた電力を使わなければならないという、悪循環に陥っているのです。Armは元々組み込み用途を念頭に開発されたアーキテクチャで、現在もスマホの90%で採用されているくらいに省電力なプロセッサです。サーバー向けの64ビットアーキテクチャになっても、省電力に強みを持っています。調達コストと電力コストを抑えられ、独自の拡張でパフォーマンスも上げられれば、顧客への提供価格を引き下げられます。(調べた限りでは、どのような独自機能を組み込んだのかはわかりませんでした)
AIで差別化を図るプラットフォーマー
そしてもう一つは機械学習用のチップです。IntelやNvidiaの機械学習用プロセッサは誰でもお金さえ出せば使えますから、差別化にはなりませんし、コストも高くつきます。プロセッサを独自開発しているGoogleに対抗するためにも、専用プロセッサの開発は必須だったのでしょう。
このチップについても、内部構造などの詳しい情報はまだありませんが、INT8、FP16をサポートする推論用プロセッサということですから、Googleの最初のTPUに相当するものだと思われます。Googleの最初のTPUはINT8専用の推論用で、その後発表されたTPU2/3はFP16に対応し、クラウドサイドでの学習にも対応しています。Googleは今年の夏にエッジデバイス用のEdge TPUを発表しましたが、これは推論用で、AmazonのInferentiaもこれと同じカテゴリとなるようです。そしてInferentiaも、将来は恐らく学習にも対応してくるものと思われます。
これらのチップ設計を手掛けたのはAmazonが2015年に買収したAnnapurna Labsということです。こういった買収情報は、Wikipediaにも出ています。企業買収は数年後を見据えた中期的な戦略に基づくことが多いため、こういった情報をうまく読み解けば未来を見通すことができそうですね。