Googleクラウドの核心の感想
本書は、Googleの中の人がWSC(Warehouse-Scale Computers=倉庫規模のコンピューター/データセンター?)に関して説明しています。本書でGoogleが如何に経済的にWSCを建設しているのかわかります。
ハードウェアサブシステム(空調とかUPS系を除外?)の電力消費は、CPU:33%、DRAM:30%、ディスク:10%、その他:22%、ネットワーク:5%で出ています(2007年)。この数値を見て、CPUが最も電気を消費する時代は終わったと思いました。
私は1Uサーバを設定しているときにメモリのFB-DIMM(Xeon系)があまりにも高温で驚いたことがあります。Xeon系はメモリを大量の搭載するためにFB-DIMMに移行しましたが、メモリ以外のチップを搭載することで熱の問題を持っていたことは知っています。このときはCPUより熱くないのではないかと思っていたのですが、もうメモリはおおぐらいの一つなんですね。
メモリ規格を決めている団体は、DDR4でスタックメモリでメモリ到来量を確保すると言われていますが、確かにそうしないと無理ですね。また、省電力のDDR3L仕様が決められましたが、モバイル用だけではなくてサーバ業界でも省電力タイプを使わないいけない時代ですね。
GoogleのWSCの特徴として私が以下の項目が特殊ではないかと思います。
・ローエンドの製品で構築
・温度を27℃にする
・サーバ毎にUPSを配置
ローエンドのサーバを採用する理由は、スパコン規模の製品と比べて性能あたりのコストが大幅に違うためです。
温度を20度に設定しない理由は、温度によるハード故障はそれほど顕著でなく20℃にしないといけない理由が統計上ないそうです。また、DRAMのソフトエラーも温度と比例するわけではなく、使用量に比例しているようそうです。本書に記載されていませんでしたが、何かの本もしくはWEBの記事でもGoogleはHDDでも同じような温度と故障率に関して記載があったと思いますが、同じような結論(故障率と温度はあまり関係がない)でした。当然高い温度を維持すればそれだけ空調の消費電力もすくなく済みます。
施設共用のUPSよりもサーバ毎にUPSを搭載したほうが電力効率がいいそうです。どこかのサーバでも似たようにサーバ毎にモバイル用バッテリーを搭載してUPSの代わりにしていたと聞いたことがあります。
日本でもWEBサービス事業社が"自作サーバカンファレンス"で効率を極めたサーバを作成しています。また、"サーバ60万台の大規模データセンター、さくらインターネットが北海道に新設"にもあるようにさくらインターネットが冷房代を浮かすために北海道にデータセンターを建設しました。
クラウドコンピューティングを展開する上でデータセンターを大規模に作らなくてはなりませんが、コスト(建設及び運用)を度外視できるわけではありません。Googleは経済的にWSCを建設するためのデータとして大規模な統計データをサービスを実行しているサーバ(BigTableとか)で保存して、解析を行っています。
そのような統計データを保存するのはサービスを行う上でオーバーヘッドになったり、解析を行うとWSCのCPUパワーが余計にとってしまうのではないかと思ってしまいます。ですが、Googleはトータルとして詳細な統計データを下に方針を決めたほうがより効率的だと考えているのでしょう。このあたりの徹底的に行うあたりが、Googleの競争力が維持されているところなのかも知れません。
【本】
・ビジョナリーカンパニー3~衰退の五段階~の感想
・大規模サービス技術入門の感想
・モチベーション3.0~持続する「やる気!」をいかに引き出すか~の感想
・" 「結果を出す人」はノートに何を書いているのか実践編"の感想
・"新書がベスト"の感想