損保ジャパン、大規模言語モデルのリスク評価でRobust Intelligenceと協業
今回は「損保ジャパン、大規模言語モデルのリスク評価でRobust Intelligenceと協業」についてご紹介します。
関連ワード (ソフトウェア等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
SOMPOホールディングスと損害保険ジャパンは10月25日、損害保険ジャパンの生成AIシステムにおける信頼性確保のために米Robust Intelligenceと協業したことを発表した。8月から生成AIを活用した業務システムのリスク評価テストを実施している。
両社は、AI技術が生活者や企業活動の生産性向上や意思決定スピードの強化などさまざまな好影響をもたらしている一方、AIの品質や倫理、セキュリティなど各種課題に対する理解と対策が求められ、AIサービス開発者、提供者は第三者評価によりリスクを適切に管理し、利用者への透明性を確保する必要性が高まっていると説明する。
損害保険ジャパンは、生成AIや音声認証、画像認識などを活用した事業展開を進めていると言い、AIリスク管理ベンダーのRobust Intelligenceと協業することで、継続的な第三者評価によるリスク管理と透明性の確保によるAIの統制を確保していくという。
現状では、損保ジャパンで開発中の大規模言語モデルを組み込んだ社内照会システムで採用する生成AIモデルについて、Robust Intelligenceのプラットフォームで、品質と倫理、セキュリティなどの観点からリスク評価を実施したとのこと。評価結果をRobust Intelligenceが分析し、それを踏まえて生成AIモデルの出力結果の正確性向上への具体策の検討、システムの挙動特性を踏まえた適切な利用ルールの策定などの観点を整理をしたという。
この成果は、SOMPOグループ各社への展開を見据えたAIガイドラインの策定にも利用し、「テスト・評価・評価項目の反映・テスト」のサイクルの通じたAI統制を構築するとしている。