OpenAI、低コストの小型モデル「GPT-4o mini」の提供を開始
今回は「OpenAI、低コストの小型モデル「GPT-4o mini」の提供を開始」についてご紹介します。
関連ワード (CIO/経営等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
OpenAIは7月18日、大規模言語モデル(LLM)「GPT-4o」の小型版にあたる「GPT-4o mini」を発表した。OpenAIによると、GPT-4o miniは、「GPT-4」よりも精度が高く、開発者の使用時のコストを「GPT-3.5 Turbo」よりも大幅に低く抑えたバージョンで、AIモデルを広範に使用するアプリケーションの開発を加速させられるという。
OpenAIはこの新しいAIモデルを「市場に出回っている中で最もコスト効率が高い小型モデル」とうたっているが、同社の大半の発表と同様に、GPT-4o miniの技術詳細(パラメーター数など)はまったく明かされていない。そのため、この発表で言う「小型」が具体的に何を意味するかははっきりしない。
(「AIモデル」はAIプログラムの中でも、膨大な数のニューラルネットワークパラメーターと活性化関数を含む部分で、AIプログラムが機能する仕組みの中でも重要な要素とされる)
OpenAIから米ZDNETにメールで送付されてきたブログ記事には、GPT-4o miniは「入力トークンは100万あたり15セント、出力トークンは100万あたり60セントと、これまでのフロンティアモデルよりも料金が1ケタ安く抑えられており、GPT-3.5 Turboよりも60%以上安い」とある。
このコスト削減は活動のボリュームに影響を受けるアプリケーションの開発を後押しすると、OpenAIでは述べている。
例えば、アプリケーションプログラミングインターフェース(API)を何度も呼び出さなければならないアプリケーション、素材をリトリーブするための「コンテキストウィンドウ」が大きいアプリケーション(アプリ開発時にコードベースを丸ごとリトリーブするなど)、ヘルプデスクでサポート業務を担うチャットボットのようにユーザーと頻繁にやりとりする必要があるアプリケーションなどが、1トランザクションあたりのコスト削減による恩恵を受けると、OpenAIは説明している。
GPT-4o miniは、チャットボットとしての使用時には、GPT-4のスタンダードモデルのパフォーマンスを上回る(「LMSYS leaderboard」によるクラウドソーステストでの測定値)。また、「テクスチュアルインテリジェンスとマルチモーダル推論にまたがるアカデミックなベンチマークにおいて、GPT-3.5 Turboなどの小型モデルを上回っている」ほか、GPT-4oのスタンダードモデルと同じ数の言語に対応している。
「マルチモーダル推論」の「MMU」テストのような一般的なAIベンチマークでも、GPT-4o miniモデルはほかのいくつかのモデルを上回り、GPT-4oのスタンダードモデルに迫るパフォーマンスを残している。
GPT-4o miniは「Assistants API」「Chat Completions API」「Batch API」を通じて、開発者向けに即時提供されているほか、「ChatGPT」の無料アカウント、ならびに「Plus」あるいは「Team」アカウントでも、GPT-3.5 Turboの代わりに使うこともできる。
GPT-4o miniは現時点でテキストと画像にしか対応しておらず、音声と動画への対応を予定しているが、具体的な日付は明らかにされていない。GPT-4o miniのコンテキストウィンドウは12万8000トークンで、トレーニングデータは2023年10月までのものになっている。