GPT-4が検出する新たな脆弱性–サイバー攻撃への悪用を懸念する研究
今回は「GPT-4が検出する新たな脆弱性–サイバー攻撃への悪用を懸念する研究」についてご紹介します。
関連ワード (CIO/経営、PDF Report at ZDNet Japan等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
米イリノイ大学アーバナ・シャンペーン校の研究者らは、OpenAI の大規模言語モデル(LLM)である「GPT-4」を悪用することで、人間が介入することなくソフトウェアのセキュリティの脆弱(ぜいじゃく)性を攻撃し、悪用できるとの研究結果を2024年4月に公表した。
ここで指摘されているのが、「1日脆弱性」が狙われるリスクである。1日脆弱性とは、既に公開されているものの、まだ修正されていない脆弱性を指し、これが悪用される可能性があるという。実際に、米国立標準技術研究所(NIST)は、1日脆弱性の87%を悪用できたとしている。研究結果によると、GPT-4 には1 日限りの脆弱性を自律的に検出し、悪用する能力が備わってしまっているようだ。
生成AIがサイバー攻撃に加担する事例は、今後さらに増加すると考えられる。関連する記事を集めた。