Google Cloud、「Gemini 1.5 Pro/Flash」をアップデート–性能が向上してレート制限も引き上げ
今回は「Google Cloud、「Gemini 1.5 Pro/Flash」をアップデート–性能が向上してレート制限も引き上げ」についてご紹介します。
関連ワード (ソフトウェア等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
Google Cloudは米国時間9月24日、本番環境で利用可能なアップデートされた「Gemini」モデルとして「Gemini-1.5-Pro-002」と「Gemini-1.5-Flash-002」のリリースを発表した。「Google AI Studio」と「Gemini API」を介して無料でアクセス可能で、大規模な組織や 「Google Cloud」ユーザーは、「Vertex AI」でも利用できる。
これらのモデルは、最新の実験的モデルリリースを基に構築され、5月のGoogle I/Oでリリースされた「Gemini 1.5」モデルに大幅な改善を加えているという。
Gemini 1.5シリーズは、テキスト、コード、マルチモーダルタスクの幅広い分野で一般的なパフォーマンスを発揮するように設計されたモデル。1000ページのPDFから情報を合成したり、1万行以上のコードを含むリポジトリーに関する質問に答えたりといった用途に活用できる。
最新のアップデートにより、「Gemini 1.5 Pro」と「Gemini 1.5 Flash」は、「MMLU」ベンチマークのより難易度の高いバージョン「MMLU-Pro」では約7%の向上が見られたという。MATHおよびHiddenMath(内部ホールドアウトの競技数学問題セット)ベンチマークでは、両モデルとも約20%の改善を達成。ビジョンとコードのユースケースでは、視覚的理解と「Python」コード生成を測定する評価全体において、両モデルともパフォーマンスが向上したという。
また、コンテンツの安全性に関するポリシーと基準を維持しながら、モデルの回答の全体的な有用性も向上されている。これにより、多くのトピックにおいて、回答を避ける・拒否するケースが減り、より有用な回答が増えたと同社は説明する。
両モデルとも、開発者からのフィードバックを受けて、より簡潔なスタイルが採用されている。これにより、モデルの使用がより簡単になり、コスト削減も期待できるという。要約、質問応答、抽出などのユースケースでは、更新されたモデルのデフォルト出力は、以前のモデルよりも5〜20%ほど短くなっている。
Gemini 1.5 Proでは、10月1日より128Kトークン未満のプロンプトに対し、入力トークンを64%、出力トークンを52%、インクリメンタルキャッシュトークンを64%値下げする。コンテキストキャッシュと組み合わせることで、Geminiを使用したビルドのコスト削減をさらに進めることができると同社は主張する。
有料プランのレート制限も引き上げられており、Gemini 1.5 Flashで1000RPMから2000RPMに、Gemini 1.5 Proで360RPMから1000 RPMに変更されている。今後数週間のうちに、Gemini APIのレート制限をさらに引き上げ、開発者がGeminiでより多く構築できるようするという。
最新モデルのコアな改善と並行して、Gemini 1.5 Flashでは遅延が削減され、1秒当たりの出力トークンが増加している。その結果、遅延は3分の1となり、出力速度は2倍になった。
Geminiの最新バージョンとなる-002モデルでは、安全性とバランスを取りながらユーザーの指示に従うようモデルの能力が改善されている。Googleのモデルに適用可能な一連の安全フィルターは引き続き提供されていくが、今回リリースされたモデルでは、フィルターがデフォルトで適用されないため、開発者は各自のユースケースに最適な構成を決定できるという。
8月に発表されたGemini 1.5モデルの改良版「Gemini-1.5-Flash-8B-Exp-0924」もリリースされた。同改良版では、テキストとマルチモーダル両方のユースケースにおいて、大幅なパフォーマンスの向上が実現されている。同モデルは現在、Google AI StudioとGemini APIを通じて利用できる。