シンガポール、AIシステムを保護するための技術ガイドラインを策定
今回は「シンガポール、AIシステムを保護するための技術ガイドラインを策定」についてご紹介します。
関連ワード (CIO/経営等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
シンガポールは、人工知能(AI)を使ったツールやシステムのセキュリティを強化するための「実践的な対策」を提供するという指針を間もなく公開する。具体的には、同国のサイバーセキュリティ庁(CSA)が、「Technical Guidelines for Securing AI Systems」(AIシステムを保護するための技術ガイドライン)の草案を7月後半に公開し、広く一般から意見を募る予定だと、シンガポールの情報通信省で上級国務大臣を務めるJanil Puthucheary氏が明らかにした。
この自主的なガイドラインは、組織がAIシステムの潜在的リスクに対処するために実施している既存のセキュリティプロセスと並行して利用できるものになると、Puthucheary氏は現地時間7月3日、情報セキュリティ専門家協会(AiSP)が開催した「AI SECURITY SUMMIT 2024」のオープニングスピーチで述べている。
CSAでは、この技術ガイドラインが、使用しているAIツールのセキュリティ向上を目指すサイバーセキュリティ担当者にとって有益な参考資料になることを期待していると、Puthucheary氏は言う。その上で、業界やコミュニティーに対し、攻撃手法が進化する中でも、AIツールやAIシステムを安全に保ち、悪意ある脅威から保護するために自らの役割を果たすよう求めた。
AIは新たなセキュリティリスクをもたらしており、民間部門と公共部門の両方の組織がこの進化する脅威の状況を把握するよう努めなければならないと、Puthucheary氏は述べている。また、シンガポール政府の最高情報機関である政府技術庁(GovTech)が、AIシステムに対する攻撃として考えうるものをシミュレーションし、AIプラットフォームのセキュリティにもたらす影響を把握するための機能を強化しているという。「このような取り組みは、適切な安全策を講じるのに役立つものになるだろう」と、同氏は語った。
さらに、AIはデータプライバシーを狙うような「古典的な」サイバー脅威に対して脆弱なため、既存の脅威に対する防御を強化する取り組みも続ける必要があると、Puthucheary氏は続けた。AIの普及が進むにつれて、アタックサーフェス(攻撃対象領域)が拡大し、データがリスクにさらされたり、不正アクセスを受けて漏えいしたりする可能性が高まると、同氏は指摘する。AIを利用すれば、「WormGPT」のようにますます高度なマルウェアを生成できるため、既存のセキュリティシステムでは検出が困難になる可能性があるという。
だが同時に、AIを活用することで、サイバー防御を強化し、セキュリティ担当者がリスクをより素早く、大規模かつ正確にリスクを特定できるようになると、Puthucheary氏は述べている。機械学習ベースのセキュリティツールは、異常を検知し、潜在的な脅威を自動的に緩和するのに役立つと、同氏は語った。
Puthucheary氏によれば、AiSPはAIの専門グループを結成し、メンバーが開発や機能に関して互いの知見を交換できるようにしているという。2008年に結成されたAiSPは、シンガポールのサイバーセキュリティコミュニティーの間で技術的な能力や関心を高めることを目指した業界団体だ。
4月には、米国国家安全保障局(NSA)のAIセキュリティセンター(AISC)が、「Deploying AI Systems Securely」(AIシステムの安全なデプロイ)と題する資料を公開した。NSAによれば、この資料はAIシステムのデプロイと運用に関するベストプラクティスを紹介したものだという。
米サイバーセキュリティ・インフラセキュリティ庁(CISA)と共同で作成されたこのガイドラインは、AIシステムの完全性と可用性を強化し、AIシステムに存在する既知の脆弱性を緩和することを目指したものだ。また、AIシステムや関連データを狙った悪質な活動を検出し、対応するための方法や管理手段についても説明している。