生成系AIに潜む5つの重大なリスク–ハルシネーション、著作権問題など
今回は「生成系AIに潜む5つの重大なリスク–ハルシネーション、著作権問題など」についてご紹介します。
関連ワード (ソフトウェア等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
「ChatGPT」などの生成系AIは、AIとのやりとりや人々のAIに対する見方に革命的な変化をもたらした。これまでに比べて、文章作成やコーディング、職務経歴書の作成などが大幅に容易になり、短時間で終えられるようになった。しかし、多くのメリットが存在する一方で、相当に深刻なリスクも潜んでいる。
AIに対する最大の懸念は信頼性とセキュリティだ。これらのことが原因で、ユーザーを保護するためにChatGPTを完全に禁止する国やAIに関するポリシーを再考する国も出てきている。
GartnerのアナリストAvivah Litan氏によると、生成系AIに潜む最大のリスクのいくつかは信頼性とセキュリティに関連するものであり、ハルシネーション、ディープフェイク、データプライバシー、著作権の問題、サイバーセキュリティの問題が含まれるという。
ハルシネーションとは、AIモデルが事実とは異なる不正確な回答を生成する問題を指す。AIモデルは、先進的なテクノロジーではあるが、人間ではなく、訓練とデータに基づいて回答を提供するため、このような問題が発生する。
「訓練に使われるデータは、偏った回答や的外れな回答につながる可能性があるが、特に生成AI製品が信頼され、活用されるようになると、誤りを発見することは難しくなる」とLitan氏は言う。
ディープフェイクとは、生成系AIを使用して、実在する人間の特徴を模倣した偽の動画や写真、音声を作成することだ。ソーシャルメディア上で数百万回再生され、話題となったDrakeとThe Weekndの「コラボ曲」がいい例だ。
ハルシネーションと同様に、ディープフェイクは偽のコンテンツや誤った情報の拡散につながり、深刻な社会問題を引き起こす可能性がある。
生成系AIでは、大規模言語モデルの訓練のためにユーザーデータが保存されることがよくあるため、プライバシーも大きな懸念事項となっている。データプライバシーに対する懸念は、イタリアがChatGPTを禁止した最大の理由である。同国は懸念点としてデータ収集についてユーザーに適切な情報提供がなされていないこと、大規模なデータ収集を正当化する法的根拠がないこと、および年齢確認がされていないことを挙げている。
Litan氏は生成系AIに保存されたデータがユーザーの個人情報の漏えいにつながるだけでなく、セキュリティ侵害などによって「悪意を持つ者の手に渡る」リスクがあることも指摘している。
生成系AIモデルはコーディングなどの高度な能力を備えるが、悪用されて、サイバーセキュリティの懸念を引き起こす可能性もある。
同氏は、「より高度なソーシャルエンジニアリングやフィッシング攻撃に加えて、攻撃者が悪意あるコード生成を簡単に行うために生成系AIを利用する可能性がある」と述べている。
生成系AIモデルは、インターネット上にある大量のデータで訓練され、それらのデータを使用して回答を生成するため、著作権も大きな懸念事項だ。
この訓練によって、原作者が明示的に共有していない作品をも使用して、生成系AIは新しいコンテンツを生み出せるようになる。また、生成AIモデルの訓練にに使用された作品は明示的に開示されないため、こうした著作権の問題を軽減することは困難だ。