生成AIの導入でまず必要なのは管理職のトレーニング
今回は「生成AIの導入でまず必要なのは管理職のトレーニング」についてご紹介します。
関連ワード (CIO/経営等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
人工知能(AI)を組織に導入するには、AIに関する実用的な知識は第一歩にすぎず、それだけでは足りない。最近の調査によると、ほとんどの組織とそのIT部門、特に物事を前に進めるためのリソースを管理する管理職と上級幹部がまだAIを扱う準備ができていない。加えて、必要なスキル、ツール、ソリューションもまだそろっていないという。
SAS Instituteが公開したITに関する意思決定者1600人を対象とする調査によると、IT部門のリーダーがまだAIの影響を把握していないという。テクノロジーに関わる上級意思決定者のおよそ9割(93%)が、生成AIや生成AIがビジネスプロセスに及ぼすかもしれない影響を完全には理解してはいないことを認めている。
上級幹部はなんとしても必要な知識を身につける必要がある。しかし、この調査で、自社の生成AIの採用について「よく知っている」と考えている割合は、最高情報責任者(CIO)で半分以下(45%)、最高技術責任者(CTO)では3分の1強(36%)に過ぎない。最高デジタル責任者(CDO)になると、わずか13%だ。
驚くのはまだ早い。ITシステム/情報システムの責任者ではこの割合が2%、ITのマネージャーとディレクターに至ってはたったの4%だ。
全体としてみると、AI全般のガバナンスとモニタリングに関して実施しているトレーニングについて、レベルが高いと回答したのはわずか15%だった。生成AIについてはこの数字が7%になる。回答者の75%が、自社の生成AI利用について、データプライバシーとデータセキュリティに懸念があることを考えると、これは危険な状態だ。
こうしたことから、AIの実装を失敗させかねない問題を乗り越えるには、時間がかかるし、多くの教育と分析が必要になるだろう。例えば、大規模言語モデルのバイアスとプライバシーリスクを測定する信頼できるシステムを導入しているとの回答は、わずか5%しかない。プライバシーリスクの検知機能については43%が、バイアス検知については32%が社内開発を検討中だ。
生成AIシステムの継続的な自動モニタリングを実施しているのはわずか29%、手作業による定期的な調査も25%しか実施していない。
AIを採用している組織が経験している主な問題は次のとおりだ。
またこの調査によると、社内のAIに関する専門知識も決定的に不足している。およそ半数(51%)が、生成AIを効果的に使えるスキルの持ち主が社内にいないことを懸念している。また約4割(39%)が、社内の専門知識の不足が生成AI実装の障害になったと答えている。