倫理的なAIの開発で気をつけるべきこと
今回は「倫理的なAIの開発で気をつけるべきこと」についてご紹介します。
関連ワード (ソフトウェア等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
人工知能(AI)のアプリケーションに倫理観を組み込めるツールがあったとしたら、どんなに良いことだろう。
多くの開発者やIT部門は、顧客とのタッチポイントや意思決定システムにAIの機能を組み込むことを求める、組織からの強いプレッシャーに晒されている。しかしその一方で、社会ではAIにはバイアスやプライバシーの侵害が問題が内在しているという糾弾の声が上がっている。つまり、この分野は訴訟のリスクが高いということだ。
Reid Blackman氏は、近く刊行予定の「Ethical Machines: Your Concise Guide to Totally Unbiased, Transparent and Respectful AI」(Harvard Business Review Press刊)と題する著書で、こうしたAIの倫理に関する難問を克服する方法について議論している。同氏は、公正でバランスの取れたAIの実現に利用できる魅力的なツールやプラットフォームはいくつか存在するが、そうしたツールやプラットフォームだけでは、倫理的なAIソリューションを提供することはできないと述べている。同氏は、AIを扱っている開発者に向けて、AIの倫理に関する助言を提供し、その中で「ツールを効果的かつ効率的に活用するには、ユーザーが必要な知識や概念を身に付けており、必要なトレーニングを受けていなければならない」とした。以下では、倫理的なAIを実現しなければならない開発チームやIT部門のために、いくつかのアドバイスを挙げてみたい。
Blackman氏は、一般的な倫理学や道徳の理論を持ち出してAIに適用することは、「倫理的に健全なAIを構築するための方法としては拙いやり方だ」としている。むしろ、他のチームと連携して、実践的なアプローチで作業に取り組むことが望ましいという。「今抱えているケースのために重要なのは、(チームメンバーが)何をもって軽減すべき倫理上のリスクだと考えるか、どうすればチーム内で連携を取りながらリスク緩和戦略を策定し、実行できるかだ」と同氏は述べている。
AIが意図しない形で顧客や従業員に害を与えることがないかを心配するのは当然のことだが、倫理に関してはもっと広い観点から考えるべきだ。Blackman氏は、「人間の過ち」を避けることを考える方が、適切なアプローチだと考えている。これには、「倫理的に何が許され、どんな権利が侵害される可能性があり、どんな義務に違反する可能性があるか」が含まれる。
「(倫理学者は、)デザイナーやエンジニア、データサイエンティストよりも早く、倫理的な問題を発見することができる。これは、デザイナーが悪いデザインを発見するのを得意としており、エンジニアが間違ったエンジニアリングを、データサイエンティストが欠陥のある数学的分析を発見するのを得意としているのと同じことだ」
検討すべき問題は、1)何を作るか、2)どのように作るか、3)それを使って何をするか、4)どんな影響があるか、5)及ぼす影響に対して何をすべきかの5つだ。
Blackman氏は、AI製品は「サーカスの虎に少し似たところがある」と述べている。これは、「自分の子どものように育て、注意深くトレーニングを行った虎が、たくさんのショーで素晴らしい演技を披露し続けてきたにもかかわらず、ある日突然、あなたの頭をかみ砕いてしまう可能性がある」からだという。AIを手懐けられるかどうかは、「どのようにAIをトレーニングし、実際にAIがどのような振る舞いを見せ、どうやって追加データを与えてトレーニングを続け、AIが埋め込まれている環境でどのような相互作用が行われるか」にかかっている。しかしBlackman氏は、例えばコロナ禍が発生したり、政治状況が変わったりして変数が変われば、「AIの倫理的なリスクは、そのAIを導入した時よりも大きくなる可能性がある」と警告している。