人工知能の公正さを保つ鍵は、人間による監督–スマートニュース幹部が語る
今回は「人工知能の公正さを保つ鍵は、人間による監督–スマートニュース幹部が語る」についてご紹介します。
関連ワード (ビッグデータ等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
人工知能(AI)は、情報を読み解くために必要となる重要な資質が欠けているため、ユーザーに提示するコンテンツの判定を任せておくべきではない。
スマートニュースで信頼性と安全性の責任者を務めるArjun Narayan氏は、AIがユーザーに適切なコンテンツを提示するよう保証する上で、人間による監督と、保護策の実装が不可欠だと述べた。
同社のニュースアグリゲータープラットフォームは世界各地の3000におよぶニュースソースから選び出した記事を提供しており、ユーザーは1日のうち平均23分を同社のアプリ上で費やしているという。同社のアプリは「Android」版と「iOS」版が用意されており、そのダウンロード数は5000万を超えている。東京に本社を置く同社は、言語学者やアナリスト、ポリシーの立案者からなるチームを日本と米国に設置している。
膨大な数の情報がオンライン上で入手できる現在、同社は信頼できるニュースを、それを欲しているユーザーに送り届けることを使命として掲げている。同社のウェブサイトには「ニュースは信頼できるものでなければならない。われわれのアルゴリズムは数百万件単位の記事や傾向、ユーザーの閲覧行動を評価し、現時点で最も重要なストーリーの上位0.01%を提供するようになっている」と記されている。
同プラットフォームは機械学習(ML)テクノロジーと自然言語処理(NLP)テクノロジーを活用し、ユーザーの求めるニュースを見極め、優先順位を付けている。また、ニュースソースの信頼性と正確さを判定するためのメトリクス(指標)も利用している。
同氏によるとこうした点は、真正性に疑問のある情報がソーシャルメディアを通じて消費されるケースが増えている中、極めて重要だという。
同社はプロプライエタリーなAIエンジンによって、ユーザーが追いかけているトピックスといった個人の好みに基づいてニュースフィードを作り上げている。また同社は、インデックス付けした記事のコンテンツが同社のポリシーに準拠しているかどうかを判定するために、さまざまなMLシステムを用いて分析、評価している。同氏によると、ポリシーに準拠していないソースは除去されるという。
同氏のチームはカスタマーサポート担当者から報告を受けるようになっているため、ユーザーからのフィードバックは迅速に精査され、必要に応じて取り入れられると同氏は付け加えた。