責任あるAIの実現には多面的なアプローチが必要–MIT SMR誌レポート
今回は「責任あるAIの実現には多面的なアプローチが必要–MIT SMR誌レポート」についてご紹介します。
関連ワード (CIO/経営等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
人工知能(AI)を活用するプラットフォームやツールが日々新たに登場し、開発者やデータサイエンティスト、ビジネスアナリストを支援している。しかし、このような新興テクノロジーの急激な成長ペースは、AIシステムに関する責任やアカウンタビリティー(説明責任)能力の強化ペースをはるかに超えているという点で、AI分野の複雑さを増大させる結果になってもいる。
これはMIT Sloan Management Review(MIT SMR)誌がBoston Consulting Group(BCG)と共同で最近実施した調査の結論だ。1240人の企業幹部を対象にしたこの調査では、責任あるAIというイニシアチブの進捗状況と、社内で開発したAIツールと社外から調達したAIツール(「シャドーAI」と呼ばれているものを含む)双方の採用状況が調査された。
調査結果をレポートにまとめたElizabeth Renieris氏(オックスフォード大学のAI倫理研究所の上級研究員)とDavid Kiron氏(MIT SMRの編集責任者)、Steven Mills氏(BCGのマネージングディレクター兼パートナー)は、AIには負の側面もつきものだと示唆し、「例えば生成型AIは、その扱いにくさから、広範なユースケースに向けた用意が十分整っていない場合、組織に予測不能なリスクをもたらすことが分かっている」と述べた。
Renieris氏とその共著者らは、多くの企業が「社内全体にシャドーAIが広がるという可能性を軽視していた」と考えている。さらに、AIの急速な進歩によって、「AIの利用に責任を持つことが難しくなる中、責任あるAIプログラムを遂行していく上でのプレッシャーが与えられている」という。
また著者らはシャドーAIの増加によって生み出されるリスクについても警告している。その例として、企業は生成型AIアルゴリズムを急速に採用するとともに、急成長しているサードパーティーのAIツールへの依存度を高めている。「ChatGPT」や「Dall・E 2」「Midjourney」といった生成型AIのアルゴリズムは、訓練データを用いて現実のような、あるいは事実に基づいているかのようなテキストや画像、音声を生成するため、出自の確認が難しくなるという点で、商利用や法的側面、風評にまつわる新たなリスクがもたらされる。
この研究者らは、責任あるAIの重要性についても言及している。責任あるAIという言葉はここでは、「個人や社会にとって役立つとともに、ビジネスを変革するインパクトを与えられるようなAIシステムの開発/運用を保証するための原則とポリシー、ツール、プロセスを備えたフレームワーク」と定義されている。
またこの研究者らは、「業界に広まっているレイオフというトレンドの一環として、多くの企業において責任あるAIに向けた専任の社内リソースが縮小されているように見受けられる」という点から生み出されているもう1つの問題についても警告している。その上で研究者らは「責任あるAIに向けた投資が、最も必要とされている時に削減されているのは間違いない」と記している。
例えば、従業員によるChatGPTの広範な利用は多くの組織で驚きを持って受け止められており、セキュリティに影響する可能性もある。研究者らは、責任あるAIのフレームワークは「生成型AIツールによってもたらされる急激かつ予想できないほど多くのリスクに対応すること」を目的として作成されていないと記している。