マイクロソフト、新たな「Z-code」モデルで翻訳の「Translator」と「Azure AI」サービス強化
今回は「マイクロソフト、新たな「Z-code」モデルで翻訳の「Translator」と「Azure AI」サービス強化」についてご紹介します。
関連ワード (ソフトウェア等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
Microsoftは米国時間3月22日、「Microsoft Translator」とその他の「Azure AI」サービスを、同社が「Z-code」と呼ぶAIモデル群でアップデートすると発表した。これらのアップデートにより、機械翻訳の品質を向上できるほか、一般的な言語に加え、利用可能なトレーニングデータが少ない言語にも対応できるようになる。
新しいZ-codeモデルは、スパースな「Mixture of Experts」(エキスパート混合)アプローチを使用する。 Microsoftによると、タスクを完了するためにモデルの一部のみを使用する必要があるため、より効率的に実行できる。その結果、モデルのパラメーター数を大幅に拡張しながら、コンピュートの量を一定に保つことができるという。
Microsoftは最近、さまざまなAzure AIサービスにZ-codeモデルを導入し、名前付きエンティティの認識、テキスト要約、カスタムテキスト分類、キーフレーズ抽出などの一般的な言語理解タスクを改善している。しかし今回、「この新しいクラスのMixture of Expertsモデルを使い、機械翻訳製品を強化できることを、公に企業が実証したのは初めて」だと同社は述べている。
Z-codeは、同社のより大きな「XYZ-code」プロジェクトの一部だ。このプロジェクトは、テキスト、ビジョン、オーディオ、複数言語のモデルを組み合わせ、より強力で統合されたAIシステムを構築して、話す、聞く、見る、理解する能力を向上できるようにしようとしている。Z-codeモデルは、同社の「AI at Scale」「Turing」イニシアチブの一環として開発されている。それらのイニシアチブでは、大量のテキストデータを使って、あらかじめトレーニングした大規模モデルを開発し、言葉のニュアンスを理解することを目指している。さらに、同社や顧客が開発した製品に直接統合できるようになる可能性がある。
MicrosoftはZ-codeのMixture of Expertsモデルを稼働させるため、NVIDIAと協働し、NVIDIAのGPUと「Triton Inference Server」を使用して、導入と拡張を効率化している。
このほか、Microsoftは同日、NVIDIAのGPUにコンフィデンシャルコンピューティングをもたらすため、NVIDIAと協力していると発表した。
Azureの最高技術責任者(CTO)でテクニカルフェローのMark Russinovich氏は、その重要性について22日のブログ記事で次のように説明した。
「コンフィデンシャルGPUによって、CPUとGPU間でPCIeバスを介してデータを転送する際に、NVIDIAのデバイスドライバーとGPUの間で安全に交換される鍵でデータが暗号化される。データが復号される唯一の場所は、GPUパッケージ内にあるハードウェアで保護された隔離環境で、そこでモデルの生成や結果の推論が処理される。他のAzureのコンフィデンシャルコンピューティングソリューションと同様に、コンフィデンシャルGPUは、NVIDIAが製造中にプロビジョニングする一意のGPUアイデンティティーに基づいて暗号化証明をサポートする。組織はリモートアテステーションを使用して、正確に構成されたコンフィデンシャルGPU内でのみデータが処理されることを独立的に検証できる」