「ChatGPT」の奇妙な応答、「恐ろしい」など誇張した表現は不適切
今回は「「ChatGPT」の奇妙な応答、「恐ろしい」など誇張した表現は不適切」についてご紹介します。
関連ワード (ソフトウェア等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
OpenAIの「ChatGPT」が、頻繁にニュースの見出しを飾っている。ChatGPTは、人間が書いたかと見紛うようなテキストを生成する人工知能(AI)プログラムだ。最近では、ChatGPTと同系列の技術が、Microsoftの「Bing」に新たに導入されたチャット検索機能のベータ版に使用され、一部のユーザーが不快に思うような奇妙な出力を生成したことで、新たな議論が巻き起こった。
残念ながら、ChatGPTに関する報道の中には、それ自体が読者の混乱を招いているものがある。記者たちは読者の注目を引こうとして、ChatGPTに関する新たな発見を些細なものまで先を争って伝えているが、その中には、事実が伝わらないような大げさな表現を使っているものもある。そのため、実際に何が起こっているかが曖昧になってしまい、読者の不利益になるような記事も存在する。
その典型例が、The New York Timesに掲載された、Kevin Roose氏がBingのベータ版を2時間使ってみた際の経験について書いた実体験レポートだ。Roose氏によれば、このセッション中に、Bingから「シドニー」と名乗る人格が現れ、同氏に愛の告白をし、同氏の結婚生活を貶めて離婚を迫ることすらしたという。
Roose氏は、このやりとりを経験して「非常に動揺し、恐ろしくさえ感じた」と述べている。
このような誇張した表現は誤解を招くものだ。本人の主張どおり、もし同氏がAIの仕組みを本当に理解しているのなら、このような大げさな言葉を使うわけがない。AIの語り口が奇妙なものに変わったのは不適切だったかもしれないが、これは「ペルソナ」と呼ばれるよく知られたチャットボットの一面だ。
ChatGPTのようなAIチャットボットは、コマンドプロンプトに人間が入力した記号に応じて、それを補完するような記号列、あるいはそれに続く可能性が最も高い記号列の、次の記号を生成するようにプログラムされている。プログラムが生成する出力は、特定のジャンルやスタイルに合った形に変えることができ、それがペルソナと呼ばれている。
例えば、1月にarXivに投稿された研究論文では、IBMの研究者が、OpenAIの別のAIプログラムである「Codex」を使った研究を行っている。Codexは、GitHub上の5400万のリポジトリーに保管されているコードを取り込んで開発されたもので、Microsoftのプログラミング支援サービスである「GitHub Copilot」で使用されている。