マイクロソフト、視覚的なコンテンツも認識するマルチモーダルAI「Kosmos-1」を発表
今回は「マイクロソフト、視覚的なコンテンツも認識するマルチモーダルAI「Kosmos-1」を発表」についてご紹介します。
関連ワード (ソフトウェア等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
Microsoftは、同社がマルチモーダル大規模言語モデル(MLLM)と呼ぶ新たな人工知能(AI)モデル「Kosmos-1」を発表した。Kosmos-1は言葉によるプロンプトに答えるだけでなく、視覚的なキュー(きっかけ)にも対応できるようになっている。このため、画像に説明を付けたり、画像に関連した質問に回答するなどの、さまざまなタスクに利用できる。
OpenAIの「ChatGPT」によって、GPTモデルなどの大規模言語モデル(LLM)というコンセプトとともに、テキストプロンプトや入力を出力へと変換する処理に関する可能性が一般に知られるようになった。
MicrosoftのAI研究者らは「Language Is Not All You Need: Aligning Perception with Language Models」(必要なのは言葉だけではない:知覚と言語モデルの整合)という論文の中で、人々が対話能力に感銘を受ける一方、LLMは依然として画像や音声でのプロンプトといったマルチモーダルな入力に苦戦していると述べている。そして、ChatGPTのような能力を汎用人工知能(AGI)のレベルに引き上げるには、マルチモーダル知覚、すなわち現実世界における知識獲得と、「グラウンディング」(現実世界での意味とコンピューター内部のシンボルの関連付け)が必要だと示唆している。
この論文には「より重要なのは、マルチモーダルな入力を実現することで、マルチモーダルな機械学習(ML)や、ドキュメントインテリジェンス、ロボティクスといった、より価値の高い領域へ言語モデルの応用範囲が大きく広がるという点だ」と記されている。
Alphabet傘下のロボティクス企業であるEveryday Robotsと、Google ResearchのBrain Teamは2022年にLLMを用いて、人間が指示した物理的なタスクをロボットに実行させ、グラウンディングの役割を示して見せた。このアプローチには、現実世界において与えられたコンテキスト内で実行可能なタスクにおける言語モデルのグラウンディングが含まれていた。一方Microsoftも、同社の「Prometheus」というAIモデルでグラウンディングを使用し、OpenAIのGPTモデルと、「Bing」検索順位や検索結果に基づく現実世界のフィードバックを統合している。
Microsoftによると、同社のKosmos-1は汎用モーダリティーの知覚や、指示の遂行(ゼロショット学習)、コンテキスト内での学習(Few-Shot《フューショット:少ないデータでの》学習)が可能だという。また論文には「目標は、知覚とLLMを整合させることで、モデルが見たり聞いたりできるようにすることだ」と記されている。
プロンプトに対するKosmos-1の出力デモンストレーションには、にんまり笑った口の描かれた紙が猫の口元に差し出されている写真も使われていた。その際のプロンプトは「この写真が面白い理由を説明してください」であり、Kosmos-1の回答は「猫が、笑っているように見えるマスクをしている」というものだった。