生成AI利用の法的意味をもっと理解すべき–米大学が警告
今回は「生成AI利用の法的意味をもっと理解すべき–米大学が警告」についてご紹介します。
関連ワード (ビッグデータ等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
開発者やビジネスパーソンは生成人工知能(AI)の法的意味をもっと深く理解する必要がある、とスタンフォード大学の新しい論文は主張している。AIを使用して生成されたコードや言葉、画像は、著作権で保護された素材をベースとしている場合があり、訴訟の波が押し寄せる可能性があるからだ。
問題は、生成AIによる出力の所有権は誰に帰属するか、ということだ。論文によると、それはまだ曖昧な領域であるという。
生成AIを使用すると、開発者やビジネスユーザーはボタンをクリックするだけで、コードや物語を生成できる。残念なことに、「『ChatGPT』や『DALL・E』などのAIエージェントを支えるデータセット内の言葉や画像のほとんどは著作権で保護されている」と論文の著者らは指摘する。「既存の基盤モデルは、著作権で保護された素材を使って訓練されている。データ作成者が適切な権利の帰属を認められていない、または、適切な補償を受けていない場合、これらのモデルを導入すると、法的または倫理的なリスクが生じる可能性がある」
一定の条件の下で著作物の使用を許可する法的原則は、「フェアユース」と呼ばれる。しかし、論文の著者らは、「モデルが、著作権で保護されたデータによく似た出力を生成した場合、特にそのデータの市場に影響を及ぼすシナリオにおいては、モデルの出力にフェアユースが適用されなくなる可能性もある。フェアユースは保証されたものではない。フェアユースの範囲内でのモデルの開発および展開を維持するには、さらなる取り組みが必要になるかもしれない」と主張している。
論文の共著者であるPeter Henderson氏は関連するインタビューで、AIと機械学習を実際に使用している人が「フェアユースのニュアンスを必ずしも認識しているわけではない」と指摘した。「同時に、裁判所は現実世界で大きな注目を集めた特定の事例について、フェアユースによる保護の対象にはならないとの判決を下したが、それらの事例は、AIが出力しているものによく似ている。この分野での判決内容は不透明だ」