NECやNTTが取り組む小規模LLMの開発–見いだした勝機の内容
今回は「NECやNTTが取り組む小規模LLMの開発–見いだした勝機の内容」についてご紹介します。
関連ワード (CIO/経営、PDF Report at ZDNet Japan等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
米OpenAIが「ChatGPT」の投入で口火を切った生成AIによる新時代の開拓競争は、Googleによる「Bard」投入などで市場がさらに激化している。蚊帳の外にいるのが日本のIT企業だ。さしたる対抗策を打ち出せない中、NTTやNECが異なる切り口から取り組みを進めている。
それが、小規模な大規模言語モデル(LLM)の開発だ。「GPT-3」は1750億とされるパラメーター数を持つところで、NECやNTTはかなり小さい規模のLLMを開発している。NECの「cotomi」は130億パラメーター、NTTの「tsuzumi」は70億パラメーターおよび6億パラメーターの2種類を提供している。
日本企業が提供するLLMは、企業のオンプレミス環境という閉じた領域での利用という新たな需要を想定している。GPT-3などでは、社内の機密情報がLLMの再学習に利用されることにより、ほかのユーザー向けの出力結果に反映され、結果として情報漏えいが起きてしまう懸念がある。国産LLMはそれを払拭する狙いがある。
NECやNTTが取り組むLLM開発について、触れている記事を集めた。