セールスフォースのAI倫理担当が語る、AI製品を取り巻く倫理問題
今回は「セールスフォースのAI倫理担当が語る、AI製品を取り巻く倫理問題」についてご紹介します。
関連ワード (ソフトウェア等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
企業は人工知能(AI)製品の構想や開発を始める際、最初の段階から倫理について考慮しておく必要がある。そうすることで、AIツールをバイアスのない、責任あるものとして実装するための力が得られるはずだ。
サイバーセキュリティ製品では同様のアプローチが既に必要不可欠なものとして受け入れられている。「セキュリティバイデザイン」(Security by Design)という開発原則によって、リスクの評価とセキュリティ機能を最初から取り込んでおけば、一貫性のない行き当たりばったりでの対応や、後続の工程で発生する高コストな後付け対応を避けられるようになるのだ。
Salesforceの倫理AIプラクティス担当主席アーキテクトであるKathy Baxter氏は、このような考え方をAI製品の開発にも適用すべき時が来ていると述べ、組織がAI倫理の基本的な開発標準を満たす必要性を強調した。
同氏によると、サイバーセキュリティ業界は、1980年代にマルウェアが初めて出現して以来、数十年にわたって進化を続けてきているため、そこから学ぶべき教訓は数多くあるという。サイバーセキュリティという分野はそれ以前には存在していなかったものの、企業は自らのシステムを防御する中で、初期段階からリスクを洗い出し、順守すべき基本的な標準や規制を作り出すことに注力し、変化を遂げてきた。
Baxter氏は米ZDNetとのインタビューの中で、こういった変化の結果、今日あるほとんどの組織は、従業員を含むあらゆる利害関係者が順守すべき基本的なセキュリティ標準を作り出していると述べた。例えばSalesforceでは、新規採用者全員に対して、強力なパスワードの採用やVPNの使用といった、サイバーセキュリティプラクティスに関して同社が要求している物事に関するオリエンテーションの受講を義務付けている。
同氏は同じことが倫理にも適用されると述べ、社内にはその専任チームが用意されていると付け加えた。
さらに、タスクやサービスが同社の倫理ガイドラインに基づいており、越えてはならない一線がどこに引かれているのかを従業員が判断できるようにするためのリソースも用意されているとBaxter氏は述べた。例えば、SalesforceのAIを活用した「Einstein Vision」は顔認識に利用してはならないため、営業担当者がそのことを知らずに同製品を販売しようとすると、同社のポリシーに違反することになる。
同氏はまた、サイバーセキュリティのプラクティスが脅威の変化に応じて定期的に見直され、改定されていくように、AI倫理に関するポリシーも定期的な見直しと改定が必要だと述べた。
こういったことは、社会や文化が時とともに変化し、10年前に適切だと考えられていた価値が今日における大多数の価値観と一致しなくなる可能性がある点からも重要だと同氏は述べた。AI製品も変化に対応していかなければならないのだ。