AI inside、企業独自のファインチューニング可能なLLM構築運用サービスを開始
今回は「AI inside、企業独自のファインチューニング可能なLLM構築運用サービスを開始」についてご紹介します。
関連ワード (ITインフラ等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
AI insideは8月20日、同社が開発する大規模言語モデル(LLM)「PolySphere-2」をベースに企業が独自に学習、ファインチューニングして独自の生成AIを活用できる環境を構築・運用する新サービス「カスタマイズSLM(Small Language Model:小規模言語モデル)」を提供すると発表した。
ベースとなるPolySphere-2は、同社の研究開発チーム「XResearch」が構築した日本語のドキュメントを処理することに特化した473億パラメーターを持つ。同社独自の測定では、ほかの著名なLLMに比べてハルシネーション(誤情報)の生成が非常に少ない一方、非構造化データの構造化の精度が高いという。
同サービスでは、同社が開発したエッジコンピューター「AI inside Cube Pro」をオ ンプレミス環境向けにサブスクリプションとして提供する。PolySphere-2に企業保有の特定のドメイン知識や専門用語を含むデータセットで学習、ファインチューニングを行うことで、特に自治体や金融、医療、製造など情報セキュリティの観点からデータを社外に展開できない組織では、機密性やプライバシーに配慮した専門性の高い生成AIを活用できる。
また、稼働基盤となるAI inside Cube Proは、複雑な設定不要ですぐに利用を開始でき、リソースの増減を柔軟に行えるほか、少ない電力消費でLLMの学習、ファインチューニングを実行できるとしている。
価格などは個別見積もりとなっている。