「AI倫理は経営課題に」–日本IBMがAI倫理の実践で調査
今回は「「AI倫理は経営課題に」–日本IBMがAI倫理の実践で調査」についてご紹介します。
関連ワード (経営等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
日本IBMは6月8日、米国本社のシンクタンク「IBM Institute for Business Value」がOxford Economicsの協力を得て調査した「AI倫理の実践」を発表した。調査は2021年5月から7月までの2カ月間、22カ国を拠点とする1200人の経営層と、22以上の業種に携わる事業・技術部門の16役職に対して実施された。
執行役員兼技術理事 兼 IBM AIセンター長の山田敦氏は記者会見で、「人工知能(AI)が社会インフラになる時代に入っている。だからこそAI倫理の実践が重要だ」とレポート発行の理由を説明した。その上でAI倫理は実践段階に突入しつつも、企業の意欲と実際の行動には大きな隔たりがある。AI倫理の推進役はビジネスリーダーが担うべきだと主張している。
この数年、AI倫理の重要性が強調されている。学習データに偏りが加わると、機械学習モデルも同様に偏りが生じるからだ。日本IBM 東京基礎研究所 AI担当シニア・マネージャーの立花隆輝氏は「人間のバイアスやヘイトスピーチが含まれると、自然言語で文章を生成するAIにも染み出してしまう。ジェンダーなどの新たな価値観も同様。インターネット上には十数年前のデータが見つかり、AIの価値観も古いままになってしまう。われわれはマーキングやフィルタリングで、人間が使うに適したAIモデルの開発に取り組んでいる」と取り組みを解説した。
IT企業にのみならず、2020年3月にはバチカンのローマ教皇庁が「Rome Call for AI Ethics」を提唱し、経済産業省も2021年7月に「AI原則実践のためのガバナンス・ガイドライン」を策定した。山田氏は「AI倫理は経営課題に位置付けられた」と話す。今回の調査では、AIとAI倫理がともに重要だと回答した割合は28%。重要性が増すタイミングを3年後に変更すると54%まで増加する。
この変化について、山田氏は「(変化を)肌感覚で感じる。例えば、5~6年前はDX推進室などの部署は多くなかったが、この数年で主だった企業に存在するようになった」と語り、AI倫理専門部署の設立が「スイッチを入れた、やると決めた」ことを意味し、企業の差別化に直結していくだろうと予見した。
だが、AI倫理を実践する企業はさほど多くない。例えば、説明責任に対しては59%の企業が賛同しているものの、実践していると回答した割合は14%。山田氏は「意欲と行動に大きなギャップが見て取れる」と指摘する。
この結果に至る背景には、「企業の68%はバイアス軽減に社内のダイバーシティー&インクルージョンの向上が有効だと認識しているが、AIチームに属する女性比率が(全体の33%に対して)6%と低い。BIPOC(有色人の頭文字)やLGBTQ+も同様」(山田氏)に偏りがあると解説した。
他方でAI倫理の推進役が、技術者からビジネスリーダーへ大幅に移行しているという。山田氏によると、「2018年の調査で非技術系リーダーを挙げた回答は15%だったが、2021年は80%に急増」した。この変化が前述した「ギャップを埋める効果を持つ」と同氏は見ている。
日本IBMと米国本社は、組織横断的にAI倫理の実践を推進するため、トップにプライバシーアドバイザリー委員会を設置。直下にAI倫理の戦略や見解を策定して、AIリスクを判断するAI倫理委員会を2018年に設けた。事業部門にもAI倫理担当者を置き、AI倫理の啓発や製品開発に生かしている。
その一つが、産業技術総合研究所が策定した「機械学習品質マネジメントガイドライン」を活用して機械学習モデルの品質を診断する「IBM ML品質診断サービス」である。山田氏は「(AIサービスの)本格展開時に有用性や公平性など問題点を指摘し、改善案を提示するサービス」だと説明した。