マイクロソフト、「Copilot」を強化–「GPT-4 Turbo」と最新「DALL・E 3」を採用
今回は「マイクロソフト、「Copilot」を強化–「GPT-4 Turbo」と最新「DALL・E 3」を採用」についてご紹介します。
関連ワード (ソフトウェア等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
Microsoftは米国時間12月5日、「Windows 11」にも搭載している人工知能(AI)アシスタント「Copilot」のテキスト/画像生成機能を強化すると発表した。
「ChatGPT」を開発したOpenAIの最新AIモデルである「GPT-4 Turbo」が今後数週間のうちにCopilotで利用可能になる。また、同じくOpenAIによって開発された、テキストから画像を生成する「DALL・E 3」のアップデート版もCopilotで利用可能になる。これらの新たなモデルによって、より賢く、堅牢なテキスト/画像生成機能が提供され、生成時の過ちも少なくなる。
MicrosoftがAIの全面的な活用を開始したのは、2023年に入ってOpenAIへの投資を拡大した直後のことだ。これに先立つ2022年、OpenAIはどのような質問に対しても斬新な答えを返せるかのように振る舞うチャットボット「ChatGPT」をリリースし、ニュースの見出しを飾っていた。MicrosoftがAI搭載の新しい「Bing」を公開すると、Googleはすぐさま独自のAIチャットボット「Bard」をリリースし、現在では「Google検索」内でAIの生成した回答を表示する実験を続けている。
Microsoftは今回、Bingの検索機能を強化し、近いうちに「Deep Search」を利用可能にすることも発表した。これは「GPT-4」を活用することで「複雑な話題に対する検索結果の最適化を実現する」ものだという。Bingはまず、ユーザーからのシンプルな疑問を解釈し、ユーザーがさらなる情報を必要としているかどうかを見いだして、ユーザーの疑問の根底にある意図を見つけるために選択肢を提示する。ユーザーがその1つを選択すると、それに応じた包括的な回答が提供される。Microsoftによると、Deep Searchはウェブサイトの有用性や信頼性などに基づいて、精度の高いランク付けができるという。なお、文字通りディープな(深い)検索を実行するため、最適な結果を用意する上で最大30秒程度の時間がかかるという。このため、より複雑なクエリーを実行する際に適していると言えるだろう。
また近く提供予定の「Multi-Modal with Search Grounding」は、強化版の画像検索機能だ。これにより、画像をBingにアップロードすると、その画像についてより詳しい情報を回答してくれるようになる。
さらに、教師にとって頭の痛い話かもしれないが、「Microsoft Edge」ユーザーはウェブサイト上で選択したテキストをCopilotを用いて書き直せるようにもなる。