IBM、推論機能を強化したLLM「Granite 3.2」を発表
今回は「IBM、推論機能を強化したLLM「Granite 3.2」を発表」についてご紹介します。
関連ワード (CIO/経営等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
IBMは、大規模言語モデル(LLM)の「Granite」ファミリーとして新たに「Granite 3.2」を発表した。今回は、企業向けの小規模で効率的かつ実用的な人工知能(AI)ソリューションの提供に重点が置かれている。
LLMのGraniteファミリーについて、IBMは急ピッチでアップデートを続けている。2024年末に登場した前回の「Granite 3.1」は、実質的にアップデートだった。一方、今回のモデルでは、このLLMが備えるさまざまな機能に、「思考の連鎖」(CoT)による実験的な推論機能が加わる。
CoT推論とは、複雑な問題をLLMが複数の論理ステップに分けられるようにする先進的なAI手法であり、人間のような推論プロセスを模倣することを目指している。理論的には、このアプローチによって複数ステップの推論、計算、意思決定が必要なタスクに対するLLMの能力が大きく向上する。
具体的には、IBMのCoTでは、多岐にわたる指示追従タスクで推論を強化する「Thought Preference Optimization(TPO)」フレームワークが採用されている。主に論理駆動タスクを対象とする従来の強化学習のアプローチと異なり、TPOはタスク全般の有効性を犠牲にすることなく、推論能力を高めることが可能だ。推論に特化した他のモデルでよく見られる性能のトレードオフを軽減できる。
IBMは今回、ドキュメント理解のタスクに特化した20億パラメーターの新しい視覚言語モデル(VLM)も導入した。グラフィック方面の機能だと思うかもしれないが、そうではない。Graniteファミリーのドキュメント理解力を向上させるのがVLMの目的だ。IBMは、オープンソースのツールキット「Docling」を用いて、8500万件のPDFファイルを処理し、質問と回答のペア2600万組を生成し、これを用いてドキュメントの多い複雑なワークフローについて、VLMの対応力を向上させた。
また、Graniteファミリーの高度な予測機能についても、企業が関心を持つかもしれない。1000万パラメーターに満たない新しい「Tiny Time Mixer」(TTM)モデルは、最大で2年先までの長期的な予測ができる。金融、経済、サプライチェーン管理のトレンド分析に有効なモデルだ。野球で夢のチームメンバーを組むのにはまだ使えないかもしれないが、将来はわからない。
IBMがオープンソースに最も好意的なAI企業であることは、これまでと変わらない。Granite 3.2のモデルはいずれも、「Hugging Face」から「Apache License 2.0」ライセンスで入手できる。一部のモデルは「IBM watsonx.ai」「Ollama」「Replicate」「LM Studio」などのプラットフォームで入手できる。IBMのこのオープンなアプローチは、企業がもっと利用できるようにAIの費用対効果を高めるというIBMの戦略と合致している。