あなたのハイパーコンバージドインフラ(HCI)、オーバーコンバージドになっていませんか?

»

いわゆるハイパーコンバージドインフラ(HCI)の一般的な定義はおおよそ

  • 複数のサーバー内にあるDAS(直接接続ストレージ)を仮想的に束ねて共有ストレージに見立てる
  • クラスターファイルシステムをサーバーに備え、データ処理はサーバー内で行う
  • データを複数のサーバーに分散させてデータを保護する
  • ハイパーバイザーによって仮想化された環境で動作させる
  • サーバーとストレージの管理をまとめて簡単に運用できる

といったことになると思います。

このHCIは今では主要なサーバーベンダーでは必ずラインナップを持っているくらいメジャーな製品カテゴリーとなりました。外部ストレージと比較すると比較的安価な内蔵ストレージを利用してハードウェアコストを削減しようというアプローチになります。また、サーバーフラッシュをキャッシュとして利用することでデータ処理速度を高速化させるというアプローチを取っています。

これまでHCIは比較的小規模な企業システムで主に使われることが多く、仮想デスクトップの展開などスタートは小規模で将来的に拡大させる見通しのあるシステムでの導入が活発です。そして今後は、仮想デスクトップ以外のエンタープライズシステムでも利用できるように進化していくものと見られています。それはサーバー、ネットワーク、ストレージで構成されるいわゆる3階層(スリーティア)アーキテクチャー、そしてそれらの構成を予め動作認定したコンバージドシステムが担っている性能重視型のインフラで稼働する性能重視型のアプリケーションです。

それでは一般的なHCIが抱える課題とは何でしょうか?

  • コンピューティングとストレージを一体型にしているため、それぞれを個別にプロビジョニングできません。それはサーバー内のストレージに永続データを保持するからです。コンピューティング性能が足りなくなった場合、サーバーを追加することになりますが、それと同時にストレージ容量も増やさなければなりません。
  • すでに使っている企業内のサーバーを利用してHCIを構成することができません。新たにHCIのシステムを用意しなければ使うことができないということです。古いインフラは使えなくなってしまう、HCIの導入はいわゆるフォークリフトアップグレードになりますね。

overconverged.png

ではここで、今使っているもしくは検討しているHCIがオーバーコンバージドになっているかどうか?確認してみましょう。

HCIのサーバーのダウンタイムはデータの保護にリスク?

メンテナンス、ソフトウェアのアップデートなどに伴ったHCIのサーバーのダウンタイムは、データの冗長性が失われる可能性とデータの再構築の恐れを伴います。すべてのサーバーにデータの冗長性を施したストレージが存在するためです。

HCIのハードウェアは自由に選ぶことができない。また増設コストも高くなる?

世界にあるX86系サーバーハードウェアは数えきれないほど多種多様に存在ます。その中には最新かつ高性能のCPUをいち早く搭載したサーバーもあれば、極限までコストを削り取ったデータセンター向けのサーバーもあります。そういった中で、HCIに使われているサーバーはどうでしょう?サポートされるサーバーにはかなり制限があります。たとえば、ドライブベイの数に制約があったりソケット数にも制約がある場合も見受けられます。結局のところ、HCIを提供するベンダーのサーバーで揃えなければならないのが現状です。他社のサーバーを混在させるなどもっての外です。そして、アップグレードのパスも非常に限られています。HCIを一旦入れてしまうと、そのベンダーにロックインされてしまいますので、増設するときなど価格検討の余地がなくなります。

HCIをスケールするためにはネットワーク環境の再検討が必要?

従来の3層アーキテクチャーであれば、サーバー間のネットワークは特に必要ありませんでした。いわゆるスケールアウトストレージは、バックエンド側でInfinibandなどの高速ネットワークを使ってデータトラフィックを制御します。HCIの場合、ノード間のネットワークにどれだけ帯域が必要なのかを見直して、必要であれば環境を再検討することをおすすめします。

QoSとトラブルシューティングに手間がかかる?

HCIのストレージプールの場合、複数の仮想マシンがリソースを共有することになり、想定以上にヘビーになってしまった仮想マシンがノイジーネイバー(うるさい隣人問題)で他の仮想マシンに性能影響が生じる恐れがあります。そのため、QoS(Quality of Service:性能品質の保証)が求められるアプリケーションを同一のHCI上で稼働させること躊躇があります。たくさんある仮想マシンで、どれが悪さをしているのかを特定することは、干し草の中から針を探すようなもので、たくさんの時間と労力を伴います。

needle.png

確認できましたか?

このようなHCIの課題を見直して、新たな発想のHCIがいくつか登場してきています。
HCIの本来の目的である「外部ストレージのコストを軽減」「簡単に運用管理」が達成できて、上述したような課題を払拭できればと考えられたHCIが実現していますので皆さんも検討材料に加えてみてください。

例えば、NASで著名なNetAppが提供しているNetApp HCIは、あえてストレージを分離することで拡張性を柔軟にして、QoSも実行できるように設計されています。また、Datrium DVXは仮想マシンのデータローカリティを100%達成することQoSを実現し、高速なワークロードもこなす性能をソフトウェアで実現しています。サーバーのベンダーを選ばないのでハードウェアコストも比較検討できるようになります。管理UIでは仮想マシンごとの性能情報を表示できますので、トラブルシューティングもしやすいです。

HCIの良さを持ちながら3層アーキテクチャーの特長を進化させたHCIが、今後の新しいトレンドになるかもしれません。

Comment(0)

コメント

コメントを投稿する