MS、小型AIモデル「Phi-3-mini」を発表–性能は「GPT-3.5」に匹敵
今回は「MS、小型AIモデル「Phi-3-mini」を発表–性能は「GPT-3.5」に匹敵」についてご紹介します。
関連ワード (CIO/経営等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
テクノロジー企業各社は、より大規模でより高性能な人工知能(AI)モデルの構築でしのぎを削っている。だが、小型モデルも依然として大きな価値を持っており、Microsoftはそのコンセプトに大きく賭けようとしている。
Microsoftは米国時間4月23日、今後数カ月以内に3つの小型AIモデルをリリースすることを明らかにし、最初のモデルとして「Phi-3-mini」をリリースした。Phi-3-miniは、トレーニングに使用されたパラメーター(AIモデルがより優れた結果を生成するために使用する変数)数が38億と、計画されている3つのモデルの中で最も規模が小さい。同社は、トレーニング用パラメーター数が70億の「Phi-3-small」と140億の「Phi-3-medium」も発表したが、そのリリース時期は明言しなかった。
パラメーター数について見てみると、OpenAIの「GPT-4 Turbo」については、1兆以上のパラメーターがトレーニングに使われていることが複数の報告で示唆されている。また、Metaは2024年内にリリースする「Llama 3」モデルの最終版について、700億のパラメーターでトレーニングする予定だと18日に述べていた。
モデルのトレーニングに使われるパラメーターが増えるほど、ユーザーが望む結果を生成できる能力が高まるが、これには代償が伴う。AIモデルのパラメーターが増えれば、結果の生成に必要な電力やエネルギーも増えてしまう。クエリーが複雑な場合や、医療分野などでミッションクリティカルなAIを実装する場合は、パラメーターが多い方が適しているかもしれないが、必ずしもパラメーター数が多ければいいというわけではない。
実際、Microsoftが発表したような小型のモデルは、スマートフォンなど低電力のデバイスに適している。Microsoftは、モバイルデバイスなど、搭載されるAIのパフォーマンスがチップセットの能力やバッテリー寿命によって制約されるデバイスで、「Phi-3」シリーズのAIを使用する可能性がある。
MicrosoftはPhi-3-miniについて、小型ながら優れたパフォーマンスを発揮すると主張している。同社がThe Vergeの取材に対して語ったところによると、Phi-3-miniは同社が使用したパラメーターの10倍以上の数でトレーニングしたモデルに匹敵するパフォーマンスを実現しており、「GPT-4」やGPT-4 Turboには及ばないものの、GPT-3.5と同程度の能力があるという。
また、このレベルのパフォーマンスを達成するために、児童書などを含む「カリキュラム」でPhi-3-miniをトレーニングしたと、MicrosoftはThe Vergeに対して述べている。さらに、教材の不足を補うために、より大規模なモデルを使ってAIで作成した児童書を使用したという。
Microsoftは現在、クラウドプラットフォーム「Azure」、提携先のHugging Faceのサイト、およびAIモデルサービスを手がけるOllamaのサイトで、Phi-3-miniを無料公開している。