第2回:生成AIの業務利用で企業が定めるべきガイドラインとガバナンス
今回は「第2回:生成AIの業務利用で企業が定めるべきガイドラインとガバナンス」についてご紹介します。
関連ワード (特集・解説、生成AI時代到来、ビジネスで効果的に活用していくには等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
生成AIの現状と企業が直面する課題、そして有効な利用方法を明らかにしていく本連載。第1回は「生成AIで変わるビジネス新時代」と題し、社内利用の現状と課題について述べた。第2回は、生成AIを企業で利用するに当たって欠かせない「利用方針」「ガイドライン」「ガバナンス」について述べたい。
2023年4月、「G7群馬高崎デジタル・技術大臣会合」では、「生成AI技術が顕著になる中で、同技術が持つ機会と課題を早急に把握し、技術の発展とともに安全性と信頼性を促進し続ける必要性を認識」することがうたわれ、5月のG7広島サミットでもAIガバナンスに関する国際的な議論が繰り広げられた(総務省「G7デジタル・技術大臣会合/G7広島サミット(2023年6月28日)」)。
日本では5月以降、内閣府「AI戦略会議」が開催されており、政府は2023年12月までに生成AIのリスクや問題などを多角的に検討して、生成AIモデルのサービス提供者だけでなく、利用者(企業など)に対する指針やガイドラインを提示すると表明している。
既に生成AIを利用している企業の多くは、生成AIが有するリスクを低減させるために、利用方針、ガイドラインやガバナンス体制を策定しているが、現在策定済のものに関しても、政府の方針や国際秩序に適合するようにバージョンアップしていく必要がある。
生成AIの利用に当たっては、システム面で生成内容の正確性などを判断する「ガードレール」的な対策を施しても、倫理的・社会的な側面から受容されないことが考えられることから、ガイドラインに基づき各社員が注意・確認をした上で、ガバナンス体制によるチェックが必須となる。
政府も企業における積極的なガバナンスの検討を推奨しており、まだこれらを策定していない企業は、第三者の知見を基に策定を進める、または内閣府 科学技術・イノベーション推進事務局「AIガバナンスに関する議論の方向性について(ディスカッションペーパー)令和5年4月」や東京都「文章生成AI利活用ガイドライン」など公知情報を参考に、作成していくことが求められる。
世界的な関心が高まっている通り、生成AIは業務・ビジネスでの活用において多くの可能性を持つ。一方で、前述のように倫理的・社会的受容性の面で多くのリスクを併せ持っているため、現在「使い方」だけの社内周知で済ませている企業は、前述の通り、早急に方針やガイドライン、ガバナンス体制などの体系化が必要だ。生成AIに限らず、AI利用のガバナンスはリスクへの対応を事前に想定するだけにとどまらず、AIとの付き合い方や革新的な技術を、自社の経営にどのように活用していくかの大きな方向性の提示が必要となってくる。
生成AIを含むAI活用に関するガイドライン、ガバナンスの策定に当たっては図1のような体系に基づく下記要件が求められる。
生成AIは、革新や進歩が速い技術であるからこそ、使い方を間違ってレピュテーション(企業の評判)の低下や訴訟リスクにさらされないように、これらに体系的に焦点を当て、リスクが顕在化する前に検討しておく必要がある。また、政府は中小企業に対する生成AIの利用促進を表明しており、中堅中小企業が自らこれらへ対応することも当然必要だが、大企業がサプライチェーンとして手を組む中小企業に対してアドバイスをしていくことが今後求められるであろう。