ウィズセキュア、サイバー攻撃での「ChatGPT」悪用について警鐘
今回は「ウィズセキュア、サイバー攻撃での「ChatGPT」悪用について警鐘」についてご紹介します。
関連ワード (セキュリティ等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
ウィズセキュアは、機械学習によってテキストを生成する高精度の言語人工知能(AI)である「Generative Pre-trained Transformer 3(GPT-3)」に関する調査の結果を発表した。
これによるとGPT-3をベースに開発されたチャットボットモデル「ChatGPT」がサイバー攻撃に利用される可能性があるという。
GPT-3やGPT-3.5のような自己回帰言語モデルを採用した使いやすいツールが広くリリースされることで、インターネットに接続できる環境であれば、誰でも人間のような音声を数秒で生成することができるようになった。ウィズセキュアでは、わずかなインプットから多用途の自然言語テキストを生成することは、サイバー犯罪者の興味を引くことは必至だとしている。
またウェブを使って詐欺やフェイクニュース、誤報を流す人たちも、信頼が置けるあるいは説得力のあるテキストを瞬時に作成するツールに関心を持つ可能性があるとしている。
今回の調査で、ウィズセキュアはChatGPTに関する悪用例として次のユースケースを研究した。
研究の結果、大規模言語モデルを用いれば、たとえ学習データに関連情報が含まれていなくても、スピアフィッシング攻撃に適したメールスレッドの作成、特定の人物の文体の模倣である「テキストディープフェイク」、文章内容への意見の適用、特定の文体での執筆、説得力のあるフェイク記事の作成が可能であることが証明されたという。
この結果を受け、ウィズセキュアでは、インターネットに接続できる人なら誰でも強力な大規模言語モデルにアクセスできるようになったことで、人々が受け取るメッセージやコンテンツは、AIによって書かれたものかもしれないと、まず疑念を抱くことが必要だとした。そして同社は、相手にしている知性が「本物」なのか「人工のもの」なのかを見極めようとしているとした。