インテル、企業向けの最新AIチップ「Gaudi 3」を発表
今回は「インテル、企業向けの最新AIチップ「Gaudi 3」を発表」についてご紹介します。
関連ワード (CIO/経営等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
チップ大手のIntelは米国時間4月9日、人工知能(AI)処理に特化した最新チップ「Gaudi 3」を発表した。このわずか3週間前には、最大の競争相手であるNVIDIAが「Blackwell」を披露している。
アリゾナ州フェニックスで顧客とパートナーを対象に開催されたカンファレンス「Intel Vision 2024」で、Intelの最高経営責任者(CEO)であるPat Gelsinger氏はライブ配信された基調講演でGaudi 3を発表し、企業のタスクを自動化するといった目標を強調しながらGaudi 3を企業にアピールした。
Gaudi 3は、AIのトレーニングと推論の実行に特化したIntel製チップの第3世代だ。Intelは2019年、イスラエルのテルアビブでベンチャーの支援を得て活動していたスタートアップのHabana Labsを約20億ドル(当時のレートで約2200億円)で買収し、このチップファミリーを獲得していた。
Gaudi 3は、大規模言語モデル(LLM)の「TensorRT」をはじめとするAIモデルのトレーニングを、NVIDIAの主力GPU「H100」の2倍近い速度で実行できると、Gelsinger氏は言う。
(「AIモデル」とは、膨大な数のニューラルネットワークパラメーターや活性化関数で構成されたAIプログラムの一部で、AIプログラムを機能させるための重要な要素だ)
Gaudi 3は、トレーニング済みのニューラルネットワークで実際の質問に対する予測を行う場合に、H100より50%速く推論を実行できる。
「Gaudi」チップファミリーは、最近のベンチマークテストでNVIDIAに匹敵する能力を示した。業界コンソーシアムのMLCommonsが実施した直近の「MLPerf」テストでは、現行の「Gaudi 2」チップが、オープンソースで提供されているMetaの700億パラメーターのLLM「Llama 2」を使った予測で、H100と競り合った唯一のデータセンター向けチップとなっていた。
「何よりも、総所有コストの点で企業に大きなメリットをもたらす」と、Gelsinger氏は語っている。
Gaudi 3は、AI処理の中心となる行列乗算を高速化するため、ダイ上に64個のテンソルコアを搭載し、8個の「行列演算エンジン」でその処理をサポートしている。このコンポーネントは、96MBの高速オンチップSRAMキャッシュメモリに加え、業界最速のDRAMで、プロセッサーの隣に重ね合わせた複数のメモリチップダイで構成された128GBの「HBM3E」を外部メモリとして利用している。
「Gaudi 3」の演算処理能力は、1.84テラフロップス(TFLOPS)だ。TFLOPSは広く使用されているチップ性能の指標で、1TFLOPSは、8ビット浮動小数点演算を毎秒1兆回実行できることを意味する。
今回のイベントが顧客向けのものであることを考えれば当然だが、Gelsinger氏は、Dellなどのゲストを壇上に迎えて協力を得ながら、企業のタスクに焦点を当てた話を展開し、AIプログラムは実験の段階から実装の段階に移行していると語った。
Gelsinger氏によれば、Gaudi 3はAIが3つの段階を経て前進するのを手助けするものだという。現在は第1段階の「AIがコパイロットとなる時代」だが、「第2段階のAIがエージェントとなる時代が間近に迫っている」と、同氏は言う。
また、第3段階は「AIが職務を遂行する時代」で、「自動化によって企業全体で複合的な成果を上げる」ためにこのテクノロジーが実装されるという。
AIが第3段階まで進めば、仕事が自動化され、それによって効率化が進むため、組織の中に眠っていた「すべてのデータを開放する」といった目標が実現し、「社員1人で10億ドルを売り上げる企業が初めて誕生するかもしれない」と、Gelsinger氏は語った。