自前のAIツールを職場に持ち込む「BYOAI」–企業のリスクと対策は?
今回は「自前のAIツールを職場に持ち込む「BYOAI」–企業のリスクと対策は?」についてご紹介します。
関連ワード (CIO/経営等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
あらゆる分野の企業が、人工知能(AI)を利用して競争で優位に立ちたいと考えている。経営幹部に求められているのは、組織で新しいテクノロジーを安全かつ効果的に使用するためのルールと規則を設けることだ。
ブリストル大学の最高デジタル情報責任者(CDIO)のKeith Woolley氏は、英国有数の学術機関である同大学のデジタルリーダーとして、学内でのAI導入を支援している。
新興テクノロジーをいち早く取り入れるブリストル大学は、英国最速のスーパーコンピューター「Isambard-AI」などを開発している。しかし、同大学でのAIツールの利用は、世界最先端の研究活動を監督する上層部の主導だけで広がっているわけではない。
Woolley氏は米ZDNETに対し、ブリストル大学はあらゆる学術分野でイノベーションを推進するAIの力を認識しているが、講義や運営、研究の日常的な職務を担う人々も新興テクノロジーを使用している、と語った。
過去にクラウドサービスが登場したときのように、職員たちは新興テクノロジーを自分で選択したいと考えており、「Bring Your Own AI」(BYOAI)と呼ばれる動きがみられるという。
「それは現実に起きている」。こう語るWoolley氏は、クラウドが普及し、プロバイダーがAI対応サービスを急いで追加しているために、ITチームの知らないところで新興テクノロジーが組織に入り込む可能性があるとの考えを示した。
「私はそれをすでに目の当たりにしている。SaaSシステムを提供するすべてのサプライヤーがAIを組み込んでいるため、各学部がツールの構築や学内への導入を行うようになった」
他の専門家もBYOAIが成長トレンドにあると指摘する。マサチューセッツ工科大学(MIT)情報システム研究センターの調査では、一般提供されている未検証の生成AIツールを従業員が業務に使用するのがBYOAIだとされている。
Woolley氏は、ユーザー主導かベンダー主導かを問わず、AIがひそかに導入されているために、同氏のチームとブリストル大学の上層部にとって重大な懸念が生じていることを認めた。
「BYOAIは難しい問題だ」とWoolley氏。「かつて『Dropbox』などのクラウドプロバイダーのストレージがネットワークに出現したときと同じだ。人々はクレジットカードを使って共有を開始できると考えたが、これはあまり良いことではない」
MITの調査結果を見ると、Woolley氏が懸念を表明するのも無理はない。生成AIツールには、生産性向上の効果が期待されるが、データ損失、知的財産の漏えい、著作権侵害、セキュリティ侵害などのリスクも生じる。
Woolley氏によると、ブリストル大学の主な懸念点は、AI対応のSaaSサービスとのやりとりや共有されるデータソースを管理できなくなる可能性があることだという。
「データが安全なSaaS環境に格納されていると思っていても、システムに取得されて、パブリックAIモデルで使用されているかもしれない」
では、組織はBYOAIの台頭にどう対処すべきなのか。1つの方法は、幹部が生成AIを禁止することだろう。
しかし、MITの調査では、ビジネスリーダーが生成AIに対してオープンな姿勢を保ち、BYOAIをイノベーションの源泉に変える強力な指針を示すべきだとされている。
この考えに同意するWoolley氏は、アプリケーションの境界を厳密に管理することがBYOAIを管理する最善の方法だと述べた。
「ポリシーの施行について学内で議論しているところだ。安全対策を整備し、やってよいことと、やってはいけないことを示そうとしている」(Woolley氏)
ひそかに導入されるAIの管理を目的として、一連のツールを承認することが出発点となる、と同氏は語った。