第2回:検証してから信頼する–AIの責任ある導入
今回は「第2回:検証してから信頼する–AIの責任ある導入」についてご紹介します。
関連ワード (調査からひもとくDevSecOpsの現状と課題、開発等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
実例を通じてアジャイル開発や継続的なインテグレーション/デプロイメント(CI/CD)といったモダンなソフトウェア開発プラクティスの導入方法や、AIの導入をどのように実現していくのかを紹介する本連載。AIにはデータのセキュリティやコンプライアンスに関する多少のリスクがあり得ます。全く考慮せずに導入を進めていくと、不測の事態を招いてしまうかもしれません。日本で活発に議論されているAI導入前のポリシーやガイドライン策定について、具体的なステップを踏むことが重要です。
今日、あらゆる業界の企業がAI導入において、重要な局面を迎えています。AIをビジネスに採用する際にどのような方針を定め、どのような戦略を立てて、どのようにワークフローをシフトさせていくか。今構想しているものが将来のビジネスを形作ることになるからです。
責任ある形でAIを導入するには、日本の組織は自社の目標と合致する手法を模索しなくてはなりません。AIを戦略的に導入していくことで、組織はソフトウェア開発、マーケティング、財務に至るまで、組織全体の能力を高められる可能性があります。
多くの組織が業務ワークフローにAIを導入しようと急いでいますが、最も成功が見込めるのは慎重に戦略的なアプローチをとれる組織です。成功に導くための方法について、具体的にご紹介します。
AI活用において責任と持続可能性がある形で導入するには、ガードレールが必要になります。道路にある事故防止用のガードレールのように、越えてはならない境界を設定しておくのです。
GitLabの調査によると、回答者の約半数(48%)が「AIを使用して作成されたコードは、人間が生成したコードと同じ著作権で保護されないかもしれない」、また回答者の39%が「AIを使用して作成されたコードがセキュリティ上の脆弱性をもたらすかもしれない」と懸念を抱いているといいます。
組織はAIを使う時、企業、顧客、パートナーなどが所有する機密データをAIがどのように保存・保護するかを入念に検証しなくてはなりません。そうでないとセキュリティや法律上のリスクが発生します。国によっては、法律に抵触したら罰金もあるかもしれません。その結果、顧客の減少や企業価値の低下につながることもありえます。厳格な外部規制やコンプライアンスを順守する必要がある公共サービス、金融、医療などの分野では特に重要です。
知的財産を確実に保護するには、組織はAIが生成したコードを承認した上で使用するような、厳格なポリシーの骨子を作成しなくてはなりません。サードパーティーのAIプラットフォームを採用する場合、テクノロジー担当者は徹底的なデューデリジェンス(企業の価値やリスクの調査)を実施することも検討しましょう。またモデルのプロンプトとアウトプットの両方のデータが、AI/機械学習モデルのトレーニングやファインチューニングに使用されていないことを確認する必要があります。