NVIDIAの新チップ「H100」、AIによる人間理解の加速を目指す
今回は「NVIDIAの新チップ「H100」、AIによる人間理解の加速を目指す」についてご紹介します。
関連ワード (サーバ等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
NVIDIAは2022年中に、新たな人工知能(AI)アクセラレーターの販売を開始する。AIコンピューティング革命を主導する立場を確かなものにする取り組みの一環だ。
この「H100」は、「Hopper」アーキテクチャー採用のプロセッサーで、NVIDIAの最高経営責任者(CEO)Jensen Huang氏が3月に発表した。AI開発者が研究を加速させ、特に人間の言語の理解や、自動運転車のルート設定といった複雑な課題に対して、より高度なAIモデルを構築できるように設計されている。同製品は、第3四半期に出荷が開始される見込みだ。
H100は、800億個ものトランジスターを搭載し、サイズは814平方ミリメートルと、現在のチップ製造設備で物理的に可能な大きさのほぼ上限に等しい。
H100は、AMDの「MI250X」やGoogleの「TPU v4」、Intelの次期「Ponte Vecchio」のような、巨大で消費電力の多いAIプロセッサーと競合する。このような製品は、AIトレーニングシステムに適した環境、すなわち、コンピューティング機器のラックがぎっしりと並び、太い銅製の電源ケーブルが張り巡らされたデータセンターで最もよく見られるタイプの大型チップだ。
H100は、NVIDIAがビデオゲーム用GPUの開発元から、AI分野の有力企業へと進化を遂げたことを体現している。同社はAI特有の数学的処理にGPUを適応させることで、これを実現した。
スマートフォン「iPhone」から、世界最速スーパーコンピューター候補の「Aurora」まで、AIがあらゆるものに搭載される中で、AIを高速化する回路の重要性は高まるばかりだ。AIモデルを訓練して発話を別の言語にリアルタイムで翻訳したり、動画のキャプションを自動生成したりするタスクを高速化するには、H100のようなチップが欠かせない。パフォーマンスが高速化するほど、AI開発者は自動運転車のような難易度の高いタスクに取り組んだり、実験のペースを速めたりできるようになる。中でも大きな進展が期待できるのは、言語処理の分野だ。
AIシステムのトレーニングに際しては、膨大な量の情報を処理しなければならない。たとえば10万件の音声データを、それぞれ複数の方法で処理し、周囲の話し声や接続状況の悪い通話などをシミュレートするといったことが必要だ。メモリーの拡張や処理の高速化など、H100のもたらす向上がAIを利用する顧客にとって重要な理由はそこにある。
NVIDIAによると、同社が2年前に発売した旧世代の「A100」と比較して、H100は全体的な処理速度が推定6倍向上しているという。そして、その恩恵を間違いなく受ける重要な分野の1つが、自然言語処理(NLP)だ。このAI領域は、コンピューターが話し言葉を理解したり、文書を要約したり、言語を翻訳したりといったタスクを支援する。
NVIDIAは、AIの先駆的分野であるNLPの強力なプレーヤーだ。GoogleのAIシステム「PaLM」は、文中の因果関係を把握したり、プログラミングコードを記述したり、ジョークを説明したり、絵文字で何の映画か当てるゲームをプレイしたりできる。しかし、研究者の間で人気があるのは、柔軟性の高いNVIDIAのGPUだ。例えば、「Facebook」を運営するMetaは先ごろ、AI研究を加速させる高度なNLP技術を無料で公開すると発表しており、このシステムは16基のNVIDIA製GPUで動作する。
H100を利用すれば、NLPの研究者や製品開発者は、より迅速に仕事をこなせるようになると、NVIDIAでハイパースケールおよびハイパフォーマンスコンピューティンググループのバイスプレジデントを務めるIan Buck氏は言う。「数カ月かかっていたことが、1週間足らずに短縮されるはずだ」と同氏は語った。