「ChatGPT」のGPTって何?–OpenAI言語モデルの違いをまとめて知る
今回は「「ChatGPT」のGPTって何?–OpenAI言語モデルの違いをまとめて知る」についてご紹介します。
関連ワード (ソフトウェア等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
OpenAIがその名を知られるようになったのは、AIチャットボット「ChatGPT」のおかげだ。今では、誰もがChatGPTのことを知っている。Pew Research Centerが先頃実施した調査によると、米国成人の約60%がChatGPTに精通しているという。しかし、ChatGPTを支える大規模言語モデル(LLM)について、読者の皆さんはどれだけご存じだろうか。
ChatGPTの名前の最後の3文字は、名称を覚えやすくするためのものではなく、「Generative Pre-trained Transformer」(GPT)を表している。GPTは、OpenAIによって開発された大規模言語モデルファミリーであり、深層学習を使用して、人間が話しているような会話のテキストを生成する。
これらのGPTは、ユーザーのテキスト入力を理解して、会話形式の出力を生成する自然言語処理能力を備えることから、AIチャットボットで使用されている。
OpenAIのChatGPTの標準版は、「GPT-3.5」を利用してチャットボットを実現している。しかし、「ChatGPT Plus」では、OpenAIの言語モデルシステムのより高度なバージョンである「GPT-4」が使われている。OpenAI以外の企業が開発したほかのチャットボットでも、GPT LLMは使用されている。GPT-4を利用する「Microsoft Copilot」もその1つだ。
GPT-3.5は「GPT-3」の改良版で、自然言語のプロンプトを理解して出力できるほか、コードを生成することも可能だ。公開当初からOpenAIのChatGPTの無料版に搭載されているので、おそらく最も広く使用されているGPTモデルだろう。2023年3月にGPT-4が発表されるまでは、最先端のAIモデルとして君臨していた。
GPT-3.5はChatGPTの無料版に搭載されているので、無料でアクセスできる。
GPT-3.5 Turboは、「GPT-3.5」ファミリーに含まれる、より洗練されたバージョンであり、開発者はOpenAIのAPIを通して有料で利用することができる。プロンプトのコンテキストをより正確に理解し、より高品質の出力を生成することが可能だ。
GPT-3.5 Turboには、「gpt-3.5-turbo-1106」「gpt-3.5-turbo」「gpt-3.5-turbo-16k」などのモデルがある。それぞれの違いは、コンテキストウィンドウと小規模なアップデートだ。開発者は自分のニーズに最適なモデルを選択できる。
ChatGPTが2022年11月末に一般公開されてからほぼ4カ月後の米国時間2023年3月14日、OpenAIはGPT-4を発表した。
このLLMは、OpenAIがこれまで発表してきた言語モデルシステムの中で最も先進的なバージョンだ。前のバージョンであるGPT-3.5は、2022年11月に公開されて爆発的な人気を博したChatGPTチャットボットに搭載されていた。
GPT-4は大規模マルチモーダルモデル(マルチモーダルという部分が特に重要)であるため、テキストと画像の両方の入力を受け入れて、人間のようなテキストを出力することができる。
例えば、問題シートがアップロードされた場合、GPT-4はそれをスキャンして、問題の答えを出力できる。アップロードされたグラフを読み取った後、提示されたデータに基づいて計算を実行することも可能だ。
このモデルでは、知的能力もさらに向上している。下のグラフを見ると分かるように、一連の模擬ベンチマークテストでGPT-3.5を上回る成績を記録した。
月額20ドルのChatGPT Plusのサブスクリプションを購入すれば、GPT-4にアクセスできる。実際に料金を支払う前に、ChatGPT Plusを使用する場合でも、GPT-4には3時間に40メッセージまでという制限があることを理解しておくべきだ。