富士通、能動的なセキュリティ対応を図るマルチAIエージェント技術を発表
今回は「富士通、能動的なセキュリティ対応を図るマルチAIエージェント技術を発表」についてご紹介します。
関連ワード (セキュリティ等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
富士通は12月12日、「マルチAIエージェントセキュリティ技術」の開発を発表した。さまざまなAIエージェントが協調動作することにより、脆弱(ぜいじゃく)性や新たな脅威への能動的なセキュリティ対応を支援するという。
同社によると、この技術は(1)組織や拠点をまたぐ複数のAIエージェントが透過的に連携できるマルチAIエージェント連携、(2)能動的なサイバーセキュリティ対策の実現に必要なセキュリティAIエージェント、(3)生成AI環境への攻撃を自動的に防御・緩和する生成AIセキュリティ強化――の3つで構成される。
(1)は、組織や拠点単位で開発されたAIエージェントがそれぞれの環境をまたいで連携する際に、環境の差異を意識することなく情報やメッセージのやりとりを行えるようにする。これ自体は汎用(はんよう)的に利用可能といい、今回のセキュリティ用途では、データの秘匿やプライバシーの保護といった各環境のポリシーを順守しながら、各AIエージェントを協調して動作させることができる。
(2)では、セキュリティ対策を実行する3種類のAIエージェントを開発。1つ目はサイバー攻撃の戦術や手法を基にする「TTP(Tactics、Techniques、Procedures)類推エンジン」で攻撃シナリオを作成する「攻撃AIエージェント」、2つ目は企業のリスク評価に基づいた防御策を提案する「防御AIエージェント」、3つ目はシステムの本番環境から検証用の仮想環境を自動構築して防御策の影響を分析する「テストAIエージェント」になる。
3種類のAIエージェントが(1)のマルチAIエージェント連携によって協調動作し、テストAIエージェントが実行する仮想環境において、攻撃AIエージェントが作成する攻撃シナリオのシミュレーションと防御AIエージェントが作成する防御シナリオのシミュレーションを交互に実施し、新たな脅威に対する効果的な防御策を講じられるとする。
(3)では、生成AIや大規模言語モデル(LLM)において悪意のあるプロンプトの入力により意図しない動作や機密情報の漏えいなどを誘発させる「プロンプトインジェクション」攻撃などのリスクが懸念されるため、生成AIやLLMのセキュリティ耐性を自動で網羅的に確認する「LLM脆弱性スキャナー」と攻撃を自動的に防御、緩和する「LLMガードレール」を開発した。
LLM脆弱性スキャナーでは、生成コードの脆弱性をチェックする機能と、LLMの応答に合わせて最適な攻撃プロンプトを選択、高精度な攻撃と評価を行うアダプティブプロンプト技術、生成AIを活用した脆弱性の説明技術を搭載する。LLMガードレールでは、脆弱性判定により対処を必要とする攻撃的なプロンプトをITシステム運用中に検知して拒絶するガード規則を自動的に適用し、不適切な回答を防ぐという。この2つは、(2)の攻撃AIエージェントや防御AIエージェントと協調動作する。
これらについて富士通は、(1)ではカナダのCohere、(2)および(3)ではイスラエルのネゲヴ・ベン・グリオン大学とそれぞれ共同開発を行っている。まず(1)について、12月からCohereとの協業に基づいて技術実証を行い、2025年1月には連携技術の一部をオープンソースのAIエージェント基盤「OpenHands」に公開する。同年3月には(2)と(3)も含めたトライアル提供を開始するという。