リモートワークの採用面接にディープフェイクを悪用する事例–FBIが警告
今回は「リモートワークの採用面接にディープフェイクを悪用する事例–FBIが警告」についてご紹介します。
関連ワード (セキュリティ等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
ディープフェイクが広まりつつある中、企業にとっては求職者の審査が難しくなるかもしれない。米連邦捜査局(FBI)のインターネット犯罪苦情センター(IC3)は、見た目を変える技術を使って別人になりすましている者や、盗んだ個人情報を自分のものとして提出している者がいると警告している。
FBIの公共サービス案内(public service announment)によると、これらの者はディープフェイク(人工知能を利用して、人が実際にはしていない行動や発言をしているように見せかける技術)を使って、情報技術、プログラミング、データベース、その他のソフトウェア関連職のリモートワークや在宅勤務の採用面接を受けていたという。特に咳やくしゃみをしたときに求職者の唇の動きや表情が音声と一致しなかったことから、デジタルトリックであることに雇用主側が気づいたようだ。
ディープフェイクを使った求職者らは、身元調査をパスするために、他人から盗み出したPII(個人を特定できる情報)を提出していた。
これは、2019年から広まったディープフェイクの最新の事例だ。ディープフェイクは、他人の顔や声をポルノなどの恥ずかしい映像に組み込んだり、政治的な混乱を引き起こしたりする恐れがある。
Facebookが3月、ウクライナのVolodymyr Zelenskyy大統領に見せかけたフェイク動画を削除したように、ディープフェイクが政治利用される脅威は消えていない。欧州連合(EU)は6月、ディープフェイクを取り締まるために偽情報に関する行動規範を強化したが、採用面接のような場で日常的に利用されている実態は、この技術がいかに簡単に手に入り、利用できるかを示している。