データセンターのグリーンコンピューティングを実現するITプラクティス–後編
今回は「データセンターのグリーンコンピューティングを実現するITプラクティス–後編」についてご紹介します。
関連ワード (CIO/経営、カーボンニュートラル(脱炭素)等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
前回の記事では、増大するデジタル需要とデータセンターの電力消費に対するグリーンコンピューティングの必要性に関する調査結果を紹介しました。今回は、グリーンコンピューティングおよびグリーンコンピューティングの実現に長年取り組んでいるSuper Micro Computer, Inc.(以下、Supermicro)のベストプラクティスを解説します。
サーバーやストレージなどのハードウェアの構成要素には、多くのコンポーネント(パーツ)の選択肢があります。近年のハードウェアは、CPU、メモリー、ディスク、ネットワーク、GPU、OSなどの主要な構成コンポーネントが共通化され、コモディティーとなっています。
ハードウェアのエネルギー消費量は、構成されている共通パーツの総数に大部分依存するため、例えば、CPUやGPUなどの最も消費電力が大きいコンポーネントを、同じ種類、同じ個数搭載したサーバーであれば、サーバー単体の大まかな消費電力は、どのベンダーの製品を選択しても大きな差にはなりません。ハードウェアベンダー各社は、共通化されたコモディティー製品の中でいかに差別化をし、他社よりも省電力を達成するかで競っています。以下にSupermicroの、より省電力を目指した効率的なハードウェア実現例を幾つか示します。
一般的な汎用サーバーは、さまざまなアプリケーションに幅広く対応できるよう十分なコンポーネントやリソースを構成し提供されます。これは、使い方やアプリケーションによっては全く不要なコンポーネントや機能を搭載し、そのための基本電力を消費してしまうことを意味します。
Supermicroの場合は、ワークロードに最適化したシステムを主眼として、必要なコンポーネントを適切に選択し用途に応じて都度構成を最適化することにより、対象となるワークロードの要件に合った製品を提供してきました。この最適化のアプローチにより、コモディティーであっても不要なコンポーネントが削減され、ユーザーは筐体(きょうたい)のサイズの最適化や最小化、消費電力、発熱量、取得と維持コストの削減することが可能になります。最適化されたサーバーが数百台、数千台、数十万台規模のシステムに拡張し展開される場合、その節約効果は多大です。
サーバー内部の冷却方法と運用可能な耐温度性能は、エネルギー消費量の削減において最も重要な項目です。一般的なシステムルームの空調設定温度はセ氏25度前後ですが、これを35度以上で運用できれば、空調設備にかかる消費電力とコストを大幅に削減でき、グリーンデータセンター化においては必須項目となります。
Supermicroの場合は、製品において各コンポーネントからの排熱を最も効率良く冷却するよう設計しており、空冷で運用されている大規模データセンターでは、既に電力使用効率(PUE)で1.06を実現しています。今後も、さらに電力の使用効率を高めていきます。近年のCPUやGPUの消費電力量は大幅に増大し、同時に発熱量も膨大になっているため、その冷却対策にはより工夫が必要です。空冷方式のほかに、より効率的で省電力化が可能な液体冷却や液浸冷却のソリューションの提供も重要になります。Supermicroの調査では、回答者のほぼ95%が総合的に電力使用量を削減できるサーバーを求めています。