広く使われ始めたAIに問題が発生したら責任は誰にあるのか
今回は「広く使われ始めたAIに問題が発生したら責任は誰にあるのか」についてご紹介します。
関連ワード (松岡功の一言もの申す、経営等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
デジタル化の進展と共に至る所で使われるようになってきた人工知能(AI)技術だが、もし学習データの偏りによる誤った判断や動作などの問題が起きて被害が出た場合、その責任は誰にあるのか。日本IBMと国立情報学研究所(以下、NII)でそうした話を聞く機会を得たので、その内容を紹介して考察したい。
日本IBMが先頃発表したAI倫理に関する調査結果(速報記事参照)によると、企業においてのAI倫理の責任は、もはや技術系のリーダーが担うのではなく経営層が担うべきという結果が出るなど、AIのビジネス導入が進展する中でAI倫理がより重要な経営課題として認識されるようになってきたことが明らかになった。
AI倫理とは、AIが人や社会に悪影響を与えないようにするための規範を指す。学習データの偏りから誤った判断や動作が起きるのを防ぐのが狙いだ。ここにきてAIを使う企業をはじめ、国家や国際機関でもAI倫理における指針を相次いで打ち出している。
だが、気がかりなのは、実際にAIによる誤った判断や動作によって問題が起きて被害が出た場合、その責任は誰にあるのか、だ。上記の調査結果からすると、AIを使う企業の経営責任とも受け取れる。
そこで、調査結果を発表した日本IBMの執行役員 兼 技術理事でIBM AIセンター長を務める山田敦氏に会見の質疑応答で、責任の所在について「AIを使っている企業にあるという認識でよいか。そのAIシステムを開発して企業に提供したベンダーに責任はないのか」と聞いてみた。すると、同氏は次のように答えた。
「必ずしもAIを使っている企業だけに責任があるわけではないと考えている。現在、企業で使われているAIシステムには複数のプレーヤーが関わっており、それぞれに責任の一端があるとも言える。したがって、特にユーザー企業とベンダーの間ではAIについてのそれぞれの責任の範囲を契約の中であらかじめ明確にしておくことが非常に大事になる」
その責任の範囲をどのように取り決めていくかについては、例えば、経済産業省が策定したAIガバナンスのガイドラインなどを参考にしてほしいとのことだ。
しかし、学習データの偏りが故意によるものであれば、責任の所在は明らかだが、データが偏っているのかどうかも分からず、アルゴリズムも不透明な中では、予期せぬ問題が起きることが今後十分に考えられる。そうした場合の責任の所在はどうなるのか。