AI倫理の専門家が語る、AIによる偏見の助長を防ぐために必要なこと
今回は「AI倫理の専門家が語る、AIによる偏見の助長を防ぐために必要なこと」についてご紹介します。
関連ワード (ソフトウェア等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
Salesforceの倫理AIプラクティス担当主席アーキテクトであるKathy Baxter氏によると、人工知能(AI)の開発に携わるデベロッパーは、アルゴリズムのバイアスに対処するシステムを早急に開発、導入しなければならないという。同氏は米ZDNetとのインタビューで、バイアスのない公正なAIシステムを保証する上で、偏りのないデータセットの作成や、ユーザーリサーチの必要性を強調した。さらに同氏は、個人のプライバシーを守りつつ、AIシステムの透明性と理解可能性、説明責任を確保することの重要性についても強調した。そのためには、米国立標準技術研究所(NIST)が提唱しているモデルを用いた、分野をまたがるコラボレーションによって、あらゆる人々にメリットをもたらす堅牢かつ安全なAIシステムの開発が必要だと主張している。
AI倫理に関する根本的な課題の1つは、既存の社会的偏見を助長したり、新たな偏見を生み出したりすることのないAIシステムの開発/導入だ。この課題を解決する上で同氏は、誰がメリットを享受するのか、そして誰がAIテクノロジーのコストを負担するのかを問うことの重要性を強調した。また使用するデータセットに目を向け、確実に万人の声が反映されるようにする必要もある。さらに、開発プロセスにおける包括性や、ユーザーリサーチを通じた潜在的害悪の特定も重要だ。
同氏は「これは基本的な疑問の1つだが、議論を避けて通るわけにはいかない」と述べ、「とりわけ有色人種の女性はこの問題について何年も前から声を上げ続けているとともに、この分野のリサーチを進めてきている。私は、生成型AIの利用において、多くの人々がこの件について語っている点に感激している。しかし、われわれがなすべき根本的なことは、このテクノロジーから利益を得る人々と、資金を供給している人々が誰であるのかという問いかけだ。つまり、誰の声が含まれているのかということだ」と続けた。
AIシステムを訓練するために用いられたデータセットを通じて、同システムに社会的なバイアスが忍び込む可能性がある。網羅的とは言えないデータセット、例えば特定の人種が多く含まれていたり、文化的な多様性が考慮されていない画像データセットによって、AIシステムはバイアスを有したものになる可能性がある。さらに、AIシステムの社会への導入を不均一なかたちで推し進めることで社会における偏見を定着させてしまう可能性もある。
AIシステムを一般的な人々にとって透明かつ分かりやすいものにするには、開発プロセスにおける説明可能性の重視が鍵となる。例えば、「思考連鎖型(chain-of-thought)プロンプト」といったテクニックは、AIシステムの思考過程と意思決定プロセスをより理解しやすいかたちで確認できるようにする上で役立つだろう。また、ユーザーに対する説明を明確化するとともに、AIの生成したコンテンツのあいまいなところを識別できるようにする上で、ユーザーのリサーチも必要不可欠となる。