ロシアや北朝鮮などの脅威アクターによるLLM悪用、マイクロソフトとOpenAIが報告
今回は「ロシアや北朝鮮などの脅威アクターによるLLM悪用、マイクロソフトとOpenAIが報告」についてご紹介します。
関連ワード (セキュリティ等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
生成型の人工知能(AI)がますます高性能化されるにしたがって、サイバー攻撃もますます高度なものになってきている。これがMicrosoftとOpenAIの見解だ。両社は今回、国家の後ろ盾を得た脅威アクターによる大規模言語モデル(LLM)の悪用状況に関するレポートを公開した。
Microsoftが米国時間2月14日に公開した「Cyber Signals — Navigating Cyberthreats and strengthening defenses in the era of AI」(サイバーシグナル:AI時代におけるサイバー脅威の状況と防御の強化)レポートでは、同社がOpenAIとともに検出、阻止した、ロシアや北朝鮮、イラン、中国の後ろ盾を得たアクターからの攻撃について、そして個人や組織が潜在的な攻撃に備えるために講じることができる対策について解説している。
両社は、国家を後ろ盾としていると考えられるForest BlizzardやEmerald Sleet、Crimson Sandstorm、Charcoal Typhoon、Salmon Typhoonからの敵対的な攻撃を追跡した。いずれの攻撃も調査やトラブルシューティング、コンテンツの生成などのサイバー作戦を強化するためにLLMを利用していた。
同レポートによると、例えば北朝鮮の脅威アクターであるEmerald Sleetは、北朝鮮に関する専門家やシンクタンクを調査したり、スピアフィッシングキャンペーンに用いられると思われるコンテンツを生成したり、既知の脆弱性を研究したり、技術的な問題を解決したり、さらにはさまざまなウェブテクノロジーを使うための支援を得るのにLLMを利用していたという。
また、イランの脅威アクターであるCrimson Sandstormも同様に、ソーシャルエンジニアリングにおけるサポートや、問題のトラブルシューティングといった技術的な支援を目的としてLLMを利用していたという。
Microsoftは、音声合成といったAI技術を悪用した詐欺行為が台頭してきており、その脅威は今後ますます増大していくと記している。こういった技術を使えば、わずか3秒程度の見本となる音声からどのような人の声でも模倣できるようなモデルを構築することができる。
同レポートでは、生成型AIが悪意あるアクターによって用いられている点について記している。ただこの技術は、Microsoftのような防御側の陣営でも、より巧妙な保護手段を開発し、サイバーセキュリティの世界で常に繰り広げられているいたちごっこを優位に進めるために用いることができる。
Microsoftは、サイバーセキュリティの兆候を毎日65兆件以上も検出している。同レポートによると、こうした兆候をAIによって分析することで、脅威を阻止する上で役立つ貴重な情報が得られるという。
同レポートは結論として、ソーシャルエンジニアリングは人間が詐欺を見抜けない場合にのみ成立する攻撃手法であるため、従業員と一般大衆に対する継続的な啓発活動が不可欠だと記すとともに、AIの利用いかんに関係なく、予防策がすべてのサイバー脅威と戦っていく上で重要だと記している。