NVIDIA、AI向けGPUプラットフォーム「Blackwell」を発表
今回は「NVIDIA、AI向けGPUプラットフォーム「Blackwell」を発表」についてご紹介します。
関連ワード (ITインフラ等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
NVIDIAは米国時間3月18日、5年ぶりにリアルイベントでの開催となった「NVIDIA GTC 2024」で、次世代のデータセンター向けGPUプラットフォーム「Blackwell」を発表した。このプラットフォームは、現世代の「Hopper」と比べてパフォーマンスで最大30倍、コスト効率と電力効率で最大25倍の性能を実現する。
同社は、BlackwellプラットフォームのGPUアーキテクチャはさまざまな分野で効果を発揮すると述べているが、最高経営責任者(CEO)のJensen Huang氏が基調講演で特に強調したのは生成AIでの利用だ。
NVIDIAによれば、Blackwellアーキテクチャーには新たに6つの新技術が導入されている。
Blackwellプラットフォームの基本コンポーネントは、2つの「NVIDIA B200 TensorコアGPU」と1つの「NVIDIA Grace CPU」をNVLinkで接続したスーパーチップ「NVIDIA GB200 Grace Blackwell Superchip」だ。
同社は今回、計算集約的なワークロード向けのマルチノード水冷ラックスケールシステムである「NVIDIA GB200 NVL72」も発表しており、このシステムにはGB200 Grace Blackwell Superchipが36基搭載される(つまり、1ラックにB200が72基、Grace CPUが36基搭載されることになる)。さらにこのLVN72は、1.4エクサフロップスのAIパフォーマンスと30TBの高速メモリを備えた単一のGPUとして機能し、最新版の「DGX SuperPOD」の構成要素になるという。
Blackwellプラットフォームを使用した製品は、2024年内にAmazon Web Services(AWS)、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructureなどの主要なクラウドサービスプロバイダーで利用できるようになる見込みだ。