「ChatGPT」など生成AIツールがセキュリティの大きな懸念材料に
今回は「「ChatGPT」など生成AIツールがセキュリティの大きな懸念材料に」についてご紹介します。
関連ワード (セキュリティ等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
人工知能(AI)チャットボットの「ChatGPT」が人間のような回答を返す能力を持っている点は広く称賛されている一方、企業に極めて大きなリスクも投げかけている。
BlackBerryのアジア太平洋地域担当セールスエンジニアリングディレクターJonathan Jackson氏によると、同ツールはフィッシング攻撃を強化する目的で既に利用されているという。
同氏は、地下フォーラムで見つけたアクティビティーを引き合いに出すとともに、ChatGPTなどのAIを活用したチャットボットがハッカーらによって悪用され、なりすまし攻撃の強化に使われている形跡があると述べた。また同氏は米ZDNetとのビデオインタビューで、こうしたチャットボットはディープフェイクや、偽情報の拡散にも用いられていると述べ、ハッカーフォーラムでは不正な目的でChatGPTを利用するサービスが提供されていると付け加えた。
Check Point Software Technologiesで脅威インテリジェンスグループのマネージャーを務めるSergey Shykevich氏も2月の投稿に、サイバー犯罪者らの間でコードの記述を高速化するためにChatGPTが用いられている形跡があると記していた。また同社はその一例として、感染フローを完成させるためにChatGPTが用いられたケースを挙げていた。説得力のあるスピアフィッシング電子メールの作成や、英語のコマンドを受け付けるリバースシェルの開発に用いられていたという。
これまでに見つかっている攻撃コードは極めて基本的なものだが、より洗練された脅威アクターがこういったAIベースのツールを使って自らの手法を強化していくのは時間の問題だと同氏は言う。
SynopsysのSoftware Integrity Groupで主席サイエンティストを務めるSammy Migues氏は2023年の予想として、ディープフェイクやChatGPTが利用しているテクノロジーに端を発する何らかの「副作用」が表れるとしている。新たなセキュリティデバイスの設定方法に関する「専門的アドバイス」や技術サポートを必要とする人々はChatGPTに目を向けるようになる。また、AIツールに暗号関連のモジュールを開発させたり、過去数年分のログデータを読み込ませて予算の検証レポートを作成させたりできるようになる。
Migues氏は「その可能性が尽きることはない」と述べた上で、「AIは、組み立てたものを吐き出すだけの思慮のないオートマトン(自動機械)であることは確かだが、一見するとその出力は極めて説得力のあるものとなり得る」と続けた。
Jackson氏は、ChatGPTのような生成型AIアプリケーションの登場により、サイバー世界の状況に大きな変化が訪れると指摘した。その結果、セキュリティツールやサイバー防御ツールには、大規模言語モデル(LLM)上に構築されたアプリケーションが生み出す新たな脅威を識別する能力が求められるようになる。
オーストラリアの回答者500人を対象にBlackBerryが先ごろ行った調査によると、同国では、IT意思決定者の84%が、生成系AIやLLMがもたらす潜在的な脅威への懸念を表明している。
回答者の半数が示した最大の懸念は、ChatGPTによって経験の浅いハッカーが知識を深め、より専門的なスキルを身に付ける可能性があるというものだ。
そのほか48%の回答者が、ChatGPTを使えば、よりリアルで本物らしいフィッシングメールを生成できる点を懸念し、36%が同ツールはソーシャルエンジニアリング攻撃を加速させる恐れがあると回答した。
46%の回答者が、偽情報や誤情報の拡散への利用を懸念し、67%は他国がすでに悪意ある目的でChatGPTを利用している可能性が高いと考えていた。
また半数強の53%が、ChatGPTを使った初のサイバー攻撃が1年以内に発生すると予想し、26%が1~2年後、12%が3~5年後と回答している。
そのほか32%がChatGPTによってサイバーセキュリティは改善も悪化もしないとみる一方で、24%は脅威の状況が悪化すると考えていた。一方、サイバーセキュリティの改善に役立つとの回答も40%に上った。
オーストラリアの回答者の約90%は、政府にはChatGPTのような先端技術を規制する責任があると考えている。さらに40%は、現在のサイバーセキュリティツールはサイバー犯罪のイノベーションに後れを取っていると感じており、30%はサイバー犯罪者がChatGPTから恩恵を受けていると述べていた。
その一方で、約60%の回答者がこの技術は研究者に有益であると回答しており、56%がセキュリティ専門家が恩恵を受けると回答していた。
また回答者の約85%は、2年以内にAIを使用したサイバーセキュリティツールに投資する予定だと述べた。
AIや自動化技術がサイバー攻撃を仕掛ける側と防御する側の両方で利用されているという話は、決して目新しいものではない。では、なぜ今になって騒がれているのだろうか。
Jackson氏は、AIは以前からサイバー防衛に使われているが、ChatGPTや他の類似ツールの特徴は、コーディング言語など本来複雑な概念を誰でも理解できるようにする能力だと指摘した。
このようなツールには、コンテキストを持つキュレーションされた膨大な量のトレーニング用データセットに基づいて構築されたLLMが使用されている。「これらは特定の作業を非常に得意としている」とJackson氏は指摘する。「ChatGPTは、優れたコードを書こうとしている人にとって非常に強力なリソースであり、ネットワークの防御を迂回(うかい)するためのスクリプトを含めて、悪意のあるコードを書く際にも有効だ」
またChatGPTは、特定の個人のソーシャルメディアプロフィールに対してスクレイピングを行い、その人物になりすましてスピアフィッシング攻撃を行うためにも利用できる。
「もっとも大きな影響を与えるのは、ソーシャルエンジニアリングやなりすましだ」とJackson氏は述べ、ChatGPTのようなツールは、フィッシング攻撃を強化するために使われるだろうと付け加えた。
同氏は、LLMが登場したことで、サイバー防御やデータの守りに対する従来のアプローチを見直す必要が生じていると強調した。AIを使用した攻撃に対抗するには、AIや機械学習(ML)を活用することが重要だという。
AIやMLの機能に投資し、脅威をより素早く発見できるようにすることが重要であり、「人間を使うことはもはや現実的ではないし、この数年はすでにそうなっていた」と同氏は述べている。
Jackson氏は、BlackBerryがモデルをトレーニングするためのアルゴリズムに取り組んでいると述べた。このモデルは、攻撃手段の変化を特定し、LLMによって生成されたと思われる悪意あるコンテンツをブロックすることを目的としている。さらに、ChatGPTや類似のツールが進化し続けても、潜在的な攻撃に対応できるようにするためには、量とスピードが鍵になると付け加えた。