GitHubのAIプログラミング支援機能「Copilot」、著作権や倫理の問題は?
今回は「GitHubのAIプログラミング支援機能「Copilot」、著作権や倫理の問題は?」についてご紹介します。
関連ワード (ソフトウェア等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
Microsoftの人工知能(AI)ペアプログラミングサービスである「GitHub Copilot」は、リリースされてからまだ1カ月も経っていないにもかかわらず、高い人気を博している。GitHubによれば、テクニカルプレビューの段階でも、この機能が有効化されたファイルではコードの40%近くがCopilotによって書かれていたという。
この機能は、エディターの中で直接、開発者に次に書くコードを提案してくれるもので、Microsoftの「Visual Studio Code」や「Neovim」、「JetBrains」などの統合開発環境(IDE)に対応している。このAIは、これらの開発環境の中で、開発者が入力していくに従って、コードの次の行を提案する能力を持っている。
このプログラムは、メソッドや複雑なアルゴリズムを補完してくれるほか、定型的なコードを挿入してくれたり、単体テストの支援をしてくれたりする。バックエンドで使われているエンジンのAIが、実質的にペアプログラミングのアシスタントのような働きをしてくれるわけだ。
このプログラムは、Microsoft、GitHub、OpenAIの協力によって生まれたもので、OpenAIの「Codex」をベースにしている。Codexは、一般に公開されている何十億行ものソースコード(これにはGitHubで公開されているレポジトリが含まれる)と自然言語のテキストを使ってトレーニングされたもので、プログラミングと人間の言葉の両方を理解することができる。
まるで夢のような話だ。しかし、そこにはかなり大きな問題が残っている。Codexが独自サービスの基盤を構築するためにオープンソースのコードを使用する権利があるかどうかについて、法律の面から疑う声があるのだ。また仮に合法だとしても、MicrosoftやOpenAI、GitHub、そしてCopilotのユーザーが、Copilotが「書いた」コードを利用することが倫理的に許されるのかどうかについても疑問視する意見がある。
GitHubの最高経営責任者(CEO)であるNat Friedman氏は、Copilotがベータ版としてリリースされた際、GitHubに法的な問題はないと述べている。これは、「公開情報を使って機械学習システムをトレーニングすることはフェアユースにあたる」ためだという。ただし同氏は、「知的財産権とAIの関係は、今後世界中で興味深い政策議論の対象になるだろう」とも指摘している。確かにその通りだろう。