グーグル、AIチャットボットに機密情報を入力しないよう従業員に警告
今回は「グーグル、AIチャットボットに機密情報を入力しないよう従業員に警告」についてご紹介します。
関連ワード (ソフトウェア等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
Googleの親会社であるAlphabetは何年も前から人工知能(AI)に力を注いでおり、Boston Dynamicsを買収(後に売却)したり、DeepMindを通じて科学的成果を得たりしてきた。最近では、AIチャットボット「Bard」の発表に続き、年次開発者会議「Google I/O 2023」でAI分野の話題を中心に据えていた。一方で従業員に対し、これらのAIボットに伝える内容に注意を払うよう勧告している。そのAIボットがたとえ自社のものであったとしてもだ。
Reutersの報道によると、Alphabetは機密情報をAIチャットボットに入力しないよう、従業員らに警告したという。こうした情報は、該当チャットボットを有する企業によって保管されるためだ。
OpenAIの「ChatGPT」やGoogleのBard、Microsoftの「Bing」におけるチャット機能といったAIチャットボットは、常に学習を続ける大規模言語モデル(LLM)に基づいているため、ユーザーから入力されたプロンプトは、自らの訓練に利用できるようになっている。また、これらのAIチャットボットを提供している企業は入力内容をデータとして保存しているため、従業員がそれを閲覧する可能性もある。
Googleは、BardのFAQページで以下のように記している。
またGoogleは、トレーニングを受けたレビュアーのレビュー対象にするためのサンプル(標本)として会話の一部を選び出し、最長3年間保存するとしている。そのため、「Bardとの会話にはご自身や第三者を特定できる情報を含めないようにしてください」と明記している。
OpenAIはウェブサイトで、「当社はシステムを改善し、コンテンツが当社のポリシーと安全性要件に準拠していることを確認するため、ChatGPTの会話をレビューします」と説明している。