Ridgelinez、AIガバナンス体制の構築支援サービス–生成AIなど安心安全な業務利用を促進
今回は「Ridgelinez、AIガバナンス体制の構築支援サービス–生成AIなど安心安全な業務利用を促進」についてご紹介します。
関連ワード (ソフトウェア等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
Ridgelinezは6月14日、生成AIをはじめ企業や組織で急速に進化するAI技術の安心安全な利用/活用を支援するサービス「AIガバナンス体制構築支援サービス」の提供を開始した。
執行役員パートナーの藤本健氏は会見で、「生成AIの業務利用が定着化することによって企業活動の中で、AIのリスクにさらされる場面が増えると想定され、組織的なガバナンスの整備が急務になっている」と指摘。また、「生成AIはその利用形態やユースケースに応じてリスクとコントロールが異なるため、実体に応じたAIガバナンスの構築が必要になる」とした。
AIガバナンスの構築に当たっては、利用形態やユースケースによってもリスクが異なるため、それを踏まえたリスク管理プロセスの整備が必要となる。また、AI活用は多様なリスクを内包するため、法務やセキュリティなどサイロ化しているリスク管理部門を横断する体制でのユーザー部門の統制が求められる。さらに、コンプライアンスやセキュリティのリスクにとどまらず、倫理問題も含むため、経営者がコーポレートガバナンスの一環として取り組み、レピュテーション(世間の評判や風評)の向上に努めるべきだとする。
こうしたことを踏まえ、「ルールと利用環境の整備を進め、組織文化の醸成と業務オペレーションに組み込むことで、AI活用の信頼性を担保していく」(藤本氏)ことになるという。
AIガバナンス体制構築支援サービスは、AI活用のルールやガイドラインの策定をはじめ、管理プロセスの整備、AIリスクの可視化などを行い、AIリスクがコントロールされている状態を最初の目標とし、さらなる高度化を目指していく。
具体的には、「アセスメント」「構想策定・体制構築」「運用改善」の3つのフェーズでサービスが構成されている。
アセスメントフェーズでは、現状の組織体制や部門ごとの役割分担、ポリシー、ルール、ガイドラインなどの調査を行い、Ridgelinezと富士通の知見から導出された必要業務機能と照らし合わせ、AIガバナンス機能の評価を行う。また、利用中のAIシステム、開発中のAIや、社内のAI利用状況からリスク評価を実施する。
AIの活用方針や組織体制は企業ごとに違いがあることから、AIガバナンス体制は個社で在り方が異なる。そのため、構想策定・体制構築フェーズでは、現状の組織体制から追加すべき業務機能の見極め、部門組織の新設、役割分担の見直し、必要なルールやガイドラインの作成などのAIガバナンス体制構想の策定をカスタムメイドで行う。またAIリスク評価から導かれたリスクについて、リスクのコントロールを行うための導入・管理プロセスを策定する。
運用改善フェーズは、AIを活用する中で顕在化した課題や新たなリスク、技術への対応、AIガバナンス体制自体の運用改善など、アジャイル型の改善プロセスを回していく。通常の運用からアジャイル型の改善プロセスも伴走して支援し、企業や組織が自律的に運用できる状態を目指す。
会見では、Ridgelinez社内の「ChatGPT」の活用についても明らかにされた。執行役員パートナーで最高情報責任者(CIO)の伊藤清隆氏によると、同社はDXコンサルタントとしてAIを当たり前に使いこなせるよう、ChatGPTをいち早く社内に導入した。
2023年1月には「Azure OpenAI Service」を活用した研究開発を始め、3月に「Slack」ボットとしてチャット機能を全社に展開。「Slackボットという形で、社員が慣れ親しむ手軽なUI/UXで日々アップデートを重ねながら全社に機能を提供中だ」(伊藤氏)
APIエコシステム型のクラウドネイティブなアーキテクチャーにより、アジリティーの高いAIインテグレーションが可能な点が特徴。また「Fewshot」と呼ばれる学習手法を用いることで、AIの応答に反応させたい企業固有のデータを、通常のシステムと同様のセキュリティポリシー/アクセス制御で利用できるようにしているという。