オルタナティブ・ブログ > ヨロズIT善問答 >

30年に渡って関わってきた米国のITの出来事、人物、技術について語る。

データセンターの効率的な冷却

»

先週のデータセンター ワールドでも、未だ冷却はデータセンターの大きな問題として取り上げられていた。データセンターの中に入ったことのある人は、非常に涼しかったことを(時には寒いくらい)覚えているだろう。IT機器は熱に弱い。CPUが熱でいかれてしまうことは簡単な実験でも実証できる。ビデオ参照 

まずCPUの設計を考えてみる。CPUはトランジスタの集積度を上げることで性能を上げてきた。18ヶ月ごとに性能が2倍になるというのはムーアの法則として知られている。しかしここにきて、これ以上集積度を上げることが難しくなってきた。集積度そのものも問題だが、発生する熱を効率よく除去できないという問題に直面しているのだ。そのため、CPU1つのコアだけでなく複数のコアを設置することで並列処理を行い、熱の発生を抑える方向に進んでいる。集積度を上げずに性能を上げる方法とか、全く異なったCPUの設計を、今シリコンバレーのどこかの家のガレージでごそごそやっているかもしれない。しかししばらくの間は新しい手法によるCPUは出てこないだろう。

CPUを冷却する方法がどうしても必要だ。そこでサーバにはファンが付いており、IT機器の空気取り入れ口の温度はせいぜい27度と定められている。冷房には相当な電力が消費される。この電力を節減しようと温度を上げるとファンのスピードが上がり、個々のサーバの電力消費量が増加する。これでは電力を節減したことにならない。

現在データセンターではどういう方法でIT機器の冷却を行っているのだろうか。各ラックでの電力消費密度が小さかった頃は、データセンター全体を冷却すればよかった。これはまるで、買ってきた生鮮食料品をカウンターの上に放り出して、部屋のクーラーの温度を下げるようなものだ。しかし電力消費密度が上昇すると、フロア全体を冷却するだけでは十分ではなくなってしまった。

最初に考案されたのは、冷気と暖気を分けることだ。暖気を出す通路と冷気を注入する通路に分けた。しかしこの方法だと冷気と暖気が混合してしまい、冷却の効果が薄れる。それではいっそのこと冷気通路か暖気通路を封じ込めてしまえという発想で、いくつかの製品が販売されている。一番簡単で安価なのは、精肉屋にあるようなビニールのカーテンだ。通路全体をビニールで包み込んでいる。Yahooやストレッジ ベンダー大手のNetAppが採用している。

更に進んで、この通路を部屋のようにしたものもある。電力管理機器大手のEaton社に最近買収されたWright Line社がそうした製品を出している。日本でも似たような製品が販売されている。

Itmedia1

Wright Line社の通路封じ込め用製品

その他、ラックを個別に冷却しようというものもある。最近ではラックに車輪をつけて移動可能にした製品も販売されている。写真は車輪のない版だ。

Itmedia2

Elliptical Mobile Solutions社のRaser

もっと直にサーバを冷却しようというのが、Green Cooling Revolution社の製品だ。写真は展示用なので本当の製品ではないが、要はサーバごとミネラル オイルに漬けてしまえというものだ。

Itemedia3

サーバの個別冷却

さすがに、ファンは外してディスクは完全に密封するそうだ。液体は気体に比べて千倍も冷却能力があるので有効とのことだ。ミネラル オイルに漬ける方法は、電力業界で高電圧のトランスの冷却に利用されるそうだが、実際に電源の入ったサーバが液体に漬けられているのを見ると、どきりとする。

究極の冷却方式は、CPUを直接冷却するというものだ。2008年にIBMが発表しており、5年後の実用化を目指しているとか。あと2年ちょっとで市場に出回るはずだ。しかし、IBMCPUは必ずしも市場占有率が高くない。どの程度インパクトがあるのだろうか。

最後に、違うアプローチを。一般に、IT機器に供給された電力の99%は熱という無駄になってしまうと言われる。この熱を効率よく直接電気に変換する技術(熱電変換)がアリゾナ大学で開発された。これまでもこの技術は在ったが、変換率が悪すぎた。これが実用化されれば、CPUで生成された熱を再び電気に変えることができるので、熱の除去と電力の効率的使用につながる。そうなるとPUE(供給された総電力/ITに供給された電力)はどうなるのだろうか。冷却がほとんど必要なくなるので、限りなく1に近づくのだろう。

Comment(0)