MS、「Maia 100」AIアクセラレーターと「Cobalt 100」プロセッサーを発表
今回は「MS、「Maia 100」AIアクセラレーターと「Cobalt 100」プロセッサーを発表」についてご紹介します。
関連ワード (ITインフラ等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
Microsoftは米国時間11月15日、開発者向け年次カンファレンス「Microsoft Ignite 2023」で、「Microsoft Azure」クラウドサービス向けのカスタムクラウドコンピューティングチップとして以前から登場が予想されていた「Microsoft Azure Maia 100 AI Accelerator」を発表した。このチップは同社によると、生成型の人工知能(AI)などのタスクに最適化されているという。
Maia 100は、AI向けアクセラレーターのシリーズとなる「Maia」の第1号製品だという。Microsoftは同製品について、1050億個のトランジスターが集積されており、「5ナノメートル(1ナノメートルは10億分の1m)プロセス技術を採用したチップとしては最大規模の製品の1つ」だと述べた。
さらに同社は、クラウドコンピューティング向けととなる初の自社開発プロセッサー「Microsoft Azure Cobalt 100」を発表した。Cobalt 100はMaia 100とともに、一連の自社開発マイクロプロセッサー計画の第1弾を飾るものだ。Cobalt 100はArmの命令セットアーキテクチャーに基づいている。なお、このアーキテクチャーはArm Holdingsのライセンスの下、NVIDIAやAppleを含む数多くの企業で使用されている。
Microsoftによると、Cobalt 100はダイ上に128基の演算コアを搭載した64ビットプロセッサーであり、「Microsoft Azure」が使用してきているArmベースの他のチップよりも最大で40%の性能向上が期待できるという。また同社は、「Microsoft Teams」や「Azure SQL」を含むプログラムで既にCobalt 100が活用されていると述べた。
同社によると、Maia 100とCobalt 100は最大200GB/秒のネットワーク帯域幅を有しており、データのスループットは最大12.5GB/秒に達するという。
今回のクラウド/AI向けカスタムプロセッサーの発表により、クラウド大手3社全てがこの分野に参入を果たしたことになる。Googleは2016年に「Tensor Processing Unit」(TPU)でカスタムプロセッサー競争の口火を切り、Amazon Web Services(AWS)が「AWS Graviton」や「AWS Trainium」「AWS Inferentia」といった一連のプロセッサーで後に続いていた。
Microsoftは、Azure向けのプロセッサー供給でNVIDIAとAMD双方との提携関係を継続している点を強調した。そして2024年に、NVIDIAの「Hopper」アーキテクチャーを採用した最新GPU「NVIDIA H200」と、AMDによる対抗GPUである「AMD Instinct MI300」を追加する計画だ。
Microsoftのプロセッサーは、「GitHub Copilot」といったプログラムを支援するとともに、AIを手掛ける新興企業のOpenAIが提供する生成型AIの稼働にも用いられる。Microsoftは、OpenAIに対して110億ドル(約1兆6600億円)の投資を実行してきており、独占的な提携を結んでいる。