AIによる不正な画像改変を抑止する技術「PhotoGuard」、MITが考案
今回は「AIによる不正な画像改変を抑止する技術「PhotoGuard」、MITが考案」についてご紹介します。
関連ワード (CIO/経営等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
人工知能(AI)による画像の生成や編集が普及するにつれ、デジタルプライバシーに関する新たな懸念が生じている。それは、誰かの芸術作品や画像を許可なくAIによって編集するというものだ。現時点では、オンライン上の画像をAIプログラムに与えて編集し、ありとあらゆる目的で使用するという行為を止める手だては存在しない。
しかし、マサチューセッツ工科大学(MIT)のあるチームが編み出した手法によってそうした状況が変わる可能性もある。
「PhotoGuard」と名付けられたこの手法は、AIが画像を処理する際のアルゴリズムに関する深い理解に根ざしている。同チームはそうした知識を武器に、画像にわずかに手を加え、AIによる画像理解に混乱をもたらす手法を開発した。そして、AIが画像を理解できなければ、その画像を編集することもできなくなる。
同チームはこのプロジェクトの論文に「われわれのアプローチの中心には、画像に免疫を与えるという考え方がある。つまり、綿密に細工された(認識できないような)ゆらぎを画像に付加することで、AIを用いた画像操作に対する特殊な抵抗力を与えるというものだ」と記している。
PhotoGuardは、画像のごく一部のピクセルに手を加え、そこに存在しないものをAIが認識してしまうように仕向けることで機能する。こういった変更は人間の目では認識できないが、AIにとっては間違いようのないほど際立って見える。AIの目がこの変更されたピクセルを見た場合、該当ピクセルの重要性を過大評価し、画像の他の部分ではなく、そのピクセル部分に合わせて画像編集を実行するようになる。
MITのチームは、PhotoGuardの効果を検証するために60枚の画像を用意し、それら画像の免疫を与えたバージョンと与えていないバージョンの双方に対して、さまざまなプロンプトを用いてAIにその編集を指示した。そして新たな画像を生成させた後、チームは複数の指標を用いて編集の類似度を評価した。その結果、60枚のテスト画像では、免疫を与えた画像に対する編集が「免疫を与えていない画像に対するそれとは著しく異なっている」という結果になった。
もちろん、この手法は確実なものではない。悪意と熱意を有した人物であれば、満足のいく結果が得られるまで、免疫を与えていそうなピクセルを除去する作業を繰り返したり、単に画像にフィルターを適用するなどして画像を編集できるはずだ。それでも、今回提示された手法は多くの人を思いとどまらせる障壁となるだろう。