AI悪用の誤情報が今後2年で最大の世界的リスクに–WEF
今回は「AI悪用の誤情報が今後2年で最大の世界的リスクに–WEF」についてご紹介します。
関連ワード (CIO/経営等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
これから2年の間に多くの国で選挙が行われることもあり、人工知能(AI)を使用した誤情報や偽情報は、今後非常に深刻な世界的なリスクになるとみられている。
人々が引き続き物価の上昇を心配する中、世界経済フォーラム(WEF)は、最近発表したレポート「Global Risks Report 2024」の中で、AIによる誤情報が社会の結束に与える影響が最も大きなグローバルリスクになると警告した。「今後2年の間にいくつかの主要経済大国で選挙が行われる中、改ざんされた情報と社会不安の結びつきが問題になるだろう」としている。
WEFは誤情報と偽情報の問題が、この期間に「異常気象」や「社会の二極化」を上回る最大のグローバルリスクになると評価している。グローバルリスクのトップ5に挙げられているのは、この3つにサイバーセキュリティと国家間の武力紛争を加えた5項目だ。
また国別に見ると、誤情報や偽情報の問題はインドでは最大のリスクとして位置づけられているが、米国では6番目、欧州連合(EU)では8番目になっている。
さらにWEFは、操作された情報が混乱を引き起こす能力が急速に高まっているとも指摘した。これは、高度なテクノロジーにアクセスしやすくなっているのに加え、情報や制度に対する信頼が低下しているためだ。
WEFは、これからの2年の間に、さまざまなアクターが人為的に合成されたコンテンツの爆発的な増加に乗じて、社会の分裂やイデオロギー的暴力、政治的抑圧を増幅させると予想している。
インド、インドネシア、米国、英国などの30億人近くの人々が投票に向かう中、誤情報や偽情報、さらにそれらの情報を拡散するツールの利用が広がれば、新たな政権の正統性が損われる可能性があるという。
レポートでは、インターフェースが使いやすくなり、大規模なAIモデルが簡単に利用できるようになったため、ニッチなスキルセットを持っていない人でも、そうしたツールにアクセスできるようになったと指摘している。それによってすでに、高度な模倣音声や偽造ウェブサイトなどの、改ざんされた情報や人為的に合成されたコンテンツが爆発的に増加している。
「これから2年の間に、合成されたコンテンツによってさまざまな形で個人が操作され、経済がダメージを受け、社会が破壊されるだろう。改ざんされた情報は、気候変動対策を求める活動から紛争の激化に至るまで、さまざまな目的のために使われる可能性がある」とレポートにはある。
また、本人の同意なしに作られたディープフェイクのポルノや株式市場の操作といった、新たな形態の犯罪も急増するという。
WEFは、これらの問題はすべて、暴力的な抗議活動やヘイトクライム、内戦、テロリズムなどにつながる可能性があると警鐘を鳴らした。
一部の国ではすでに、AI生成情報のリスクと闘うために、オンライン情報や違法なコンテンツを掲載したプロバイダーと作成者の両方を対象とした新たな規制を導入し始めており、それらの規制は進化しつつある。
レポートではまた、生まれたばかりである生成AIに関する規制もこうした取り組みを補完する役割を果たす可能性が高いと述べ、中国でAI生成コンテンツにその旨を表示することが義務付けられたことを例として挙げた。こうしたルールは、AIが幻覚を起こすことによって意図せずに発生した誤情報を含めて、誤った情報を特定するのに役立つかもしれない。
しかしWEFは、一般に規制のスピードや有効性が技術発展のペースに追いつくのは困難だと述べている。
これは、最近の技術的な進歩によって、改ざんされた情報の量、範囲、効果が拡大しており、情報の追跡や、責任の帰属の確認、情報の管理が困難になっているからだ。ソーシャルメディア企業もプラットフォームの健全性を確保しようと努力しているものの、複数の選挙が同時に進むため、手が回りきらない可能性が高いという。