AIによる音声合成を悪用した、なりすまし電話詐欺が横行
今回は「AIによる音声合成を悪用した、なりすまし電話詐欺が横行」についてご紹介します。
関連ワード (セキュリティ等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
自分の大切な人が窮地に陥っているという電話がかかってくることを想像してほしい。その瞬間、窮地から救えるのであれば、送金でも何でもすると本能的に思ってしまうだろう。
詐欺師たちは人間のこうした急所を熟知しており、最近では人工知能(AI)を使ってそこに付け込もうとしている。
The Washington Postは最近の記事で、なりすまし電話詐欺の被害に遭った老夫婦として、Ruth CardさんとGreg Graceさんの事例を取り上げている。
ある日、妻のRuthさん(73歳)のもとに孫息子だという人物から電話がかかってきて、刑務所に収監され、財布も携帯電話もなく、保釈のための現金が早急に必要だと告げられた。Ruthさんと夫のGregさん(75歳)は、孫の心配をする世の中の祖父母の多くがそうするように、お金を用意するため銀行へ急いだ。
1つ目の銀行で引き出しの上限額を出金し、不足分を入手するために向かった2つ目の銀行で、支店長からこう言われた。過去に同じような事例の詐欺があったため、今回も詐欺ではないか。結局、被害にはつながらなかった。
こういった詐欺は決して珍しいものではない。米連邦取引委員会(FTC)によると、米国で2022年に発生した詐欺犯罪で2番目に多かったのがなりすまし詐欺であり、3万6000人以上が友人や家族をかたる詐欺の被害に遭っている。これらの詐欺のうち5100件は電話を通じたものであり、被害総額は1100万ドル(約15億円)以上に及んでいるという。
最近ではOpenAIの「ChatGPT」や「DALL・E」といった生成型のAIプログラムの人気が高まってきており、生成型AI(Generative AI)という言葉がバズワードになっている。こうしたプログラムは主に、ユーザーの生産性向上につながる高度な能力を備えているとされる。
しかし、この種の有益な言語モデルを訓練するために用いられる技術は、有害なプログラムを訓練するためにも使用できる。その一例として、AIによる音声合成が挙げられる。
AIによる音声合成プログラムは人間の音声を分析し、ピッチ(声の高さ)やアクセント/なまりといった、その人とまったく同じ声を合成するためのさまざまなパターンを導き出した上で、音声として再現するようになっている。こうしたツールの多くは数秒以内に処理を完了し、元の音声とほとんど区別がつかない音声を合成できる。