チャット相手が人間かボットか30%以上が判別できず–チューリングゲームの参加者
今回は「チャット相手が人間かボットか30%以上が判別できず–チューリングゲームの参加者」についてご紹介します。
関連ワード (オフトピック等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
「コンピューターの父」呼ばれているAlan Turing氏にちなんで名付けられた「チューリングテスト」は、人工知能(AI)が本物の人間のように振る舞い、人を欺くことができるかを判定するためのテストだ。AIシステムが注目を集める昨今、AI開発企業のAI21 Labsは、このテストをオンラインで試せるゲームアプリ「Human or Not」(人かそうでないか)を開発した。
同社が4月半ばに公開したこのゲームアプリは、誰か(または何か)と2分間チャットし、その相手が人間かAIかを判断するというもの。自由に質問したり、回答したりできるが、2分経過したら、対話相手が人間または機械のどちらだったのか、答えを出さなければならない。
このアプリはチューリングテストとして過去最大規模となり、世界中から150万人超が参加し、1000万以上もの会話が行われた。AI21 Labsによると、人間とボットを正確に区別できたのは68%で、32%が判別できなかったという。
全体的に、相手が人間であることを識別する方が簡単だったようだ。人間とチャットしている時は、参加者の73%が正しく判断できた。一方、ボットが相手の場合、正しく推測できたのはわずか60%だった。
17カ国のうち、正解率が最も高かったのはフランスで71.3%、最も低かったのはインドで63.5%だった。米国は中間あたりの67.2%で、その他は、英国が67.5%、イタリアが67.0%、ロシアが65.8%などとなっている。
Human or Notが使用したAIボットは、「GPT-4」やAI21 Labsの「Jurassic-2」といった最上位クラスの大規模言語モデル(LLM)をベースにしている。これらのLLMは、チャットボットやAIツールがより人間に近いテキストを生成できるように、深層学習を利用する。AI21は独自のフレームワークも開発し、ゲームごとに異なるキャラクターを持つボットを作成したという。
参加者はさまざまな工夫をこらして、相手が人間なのかボットなのかを見極めようとした。しかし、AIは十分に訓練され、多くの情報を持っていたため、必ずしもうまくいかなかった。
例えば、チャット相手が綴りや文法でミスをしたり、スラングを使ったりすると、多くの人は相手が人間である可能性が高いと考えるが、言語モデルは特定の間違いやスラングを使うように訓練されていた。
また中には、AIの学習データには最近の出来事は含まれていないはずだと考えて、会話を最近の時事ネタに誘導しようとする者もいた。しかし、ゲームで使用された言語モデルの多くは、インターネットに接続されていたため、最新ニュースを把握していた。
ボットには私生活がないという前提で、名前や出身地などの個人的な内容を尋ね、その反応をうかがう者もいた。しかし、ボットはデータベースにある個人的なエピソードをもとに架空の人格を作り上げ、うまく回答することができた。
一方、違法行為に関するアドバイスを求めたり、不快な言葉を引き出そうしたりする試みは、ほかのトリックよりも、ややうまくいった可能性がある。これは、AIが「倫理的サブルーチン」に基づき、そうした要求には応じないはずだという考えに基づいている。
AI21 Labsは、この結果を詳細に調査し、ほかの主要なAI研究者や研究機関と共に、プロジェクトに取り組むと述べている。一般市民、研究者、政策立案者が、単なる生産性向上ツールとしてではなく、未来のオンライン世界を構成する一員としてのAIに対する理解を深めることができるよう支援したい考えだ。