生成AI活用の課題は「ハルシネーション」と「セキュリティ」–AI inside調査
今回は「生成AI活用の課題は「ハルシネーション」と「セキュリティ」–AI inside調査」についてご紹介します。
関連ワード (ソフトウェア等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
AI insideは、生成AIの業務適応と課題に関する実態調査を実施し、結果を発表した。
それによると多くの大手企業が生成AIの活用に前向きである一方で、ハルシネーション(誤情報の生成)やセキュリティリスクといった課題を抱えていることが明らかになった。
回答者の84.4%が生成AIの活用に不安を感じており、その理由として「ハルシネーション(59.2%)」、「セキュリティリスク(54.9%)」、「回答品質の一貫性欠如(54.3%)」などが挙げられている。
また実際に生成AIを活用している企業が感じている課題としては、「ハルシネーションの検出と対策」と「セキュリティとプライバシー保護の徹底」が56.8%で同率1位となっている。
この調査は10月1~2日の期間に実施された。対象は、年商500億円以上の大企業に勤務する218人で、業務における生成AIの導入に携わっている。
その他の結果としては、生成AIの活用状況について8割以上の企業が、全社または一部門で生成AIを既に活用しており、14.7%が試験的に活用またはPoC(概念実証)を実施しているという。
また具体的な不安要素について自由回答で尋ねたところ、「著作権対応」「参考元の情報の精査」「情報の信憑性」「人権侵害の恐れ」「正確性への疑問」といったものが寄せられた。
このほか特定企業データを活用したカスタマイズSLM(特化型小規模言語モデル)の利用については、約8割が検討しており、特定業務や企業に特化した生成AI活用ニーズの高さがうかがえる。