NVIDIA、「Hopper」採用のハイエンドGPU「H100」などを発表
今回は「NVIDIA、「Hopper」採用のハイエンドGPU「H100」などを発表」についてご紹介します。
関連ワード (サーバ等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
最高速のグラフィックスを待ち望むゲームファンでもなければ、チップ開発企業NVIDIAの事業についてよく知らないかもしれない。しかし、同社が米国時間3月22日にカンファレンス「NVIDIA GTC 2022」で発表した一連の新モデルを含む同社のプロセッサーは、人工知能(AI)サービス、自律走行車、新たに始まりつつあるメタバースといった多様なデジタル製品の頭脳になる存在だ。
NVIDIAはGTC 2022で、新たなAIプロセッサー「H100」を発表した。これは現行の「A100」の後継となるモデルであり、A100は人の発話の翻訳、写真に写っているものの認識、自動運転車の移動ルートの設定などを行うAIシステムのトレーニングに利用されている。
A100は、NVIDIAの好業績に大きく貢献したGPUファミリーの最上位モデルだ。最高経営責任者(CEO)のJensen Huang氏はオンラインのカンファレンスで、同社の高速接続技術「NVLink」を利用すれば、最大256個のH100チップを相互接続させて「実質的に1基の驚異的なGPU」に変えることもできると述べた。
NVIDIAによると、A100は「Hopper」アーキテクチャーに基づいており、同社の新たなCPU「Grace」と組み合わせることができるという。
NVIDIAはまた、「Ampere」アーキテクチャーに基づくグラフィックスチップの新モデル「RTX A5500」を発表した。このチップは、アニメーション、製品デザイン、ビジュアルデータ処理などの3Dタスクにグラフィックスパワーを必要とするプロフェッショナル向けだ。これは同社のメタバース開発プラットフォーム「Omniverse」の事業拡大に沿う動きとなる。同社はOmniverseを通じて、メタバースと呼ばれる3D領域の構築に必要なツールやクラウドコンピューティングサービスを販売している。
H100は2022年第3四半期に出荷開始予定で、一方のGraceは「来年に出荷する見通し」だとHuang氏は述べた。
H100は、台湾積体電路製造(TSMC)の4ナノメートルプロセスを採用して、800億ものトランジスターで構成されるデータ処理回路を有する。このGPUには多くの競合製品があり、例えば1000億以上のトランジスターを搭載するIntelの次期プロセッサー「Ponte Vecchio」や、Graphcore、SambaNova Systems、Cerebrasなどの新興企業が開発している多くの専用AIアクセラレーターチップが挙げられる。
NVIDIAのとりわけ有名な競合企業はTeslaだ。同社の「D1」チップを搭載した「Dojo」技術は、自動運転車のトレーニングに使われている。Teslaはまた、こうしたAIモデルを車両本体で実行する独自のプロセッサーを設計している。
NVIDIAは、自律走行車向けAIチップ「NVIDIA DRIVE Orin」が、電気自動車メーカー2社、米国のLucidと中国の比亜迪(BYD)の車両に採用されると発表した。