OpenAIとAnthropic、AIの安全性で米政府と協力
今回は「OpenAIとAnthropic、AIの安全性で米政府と協力」についてご紹介します。
関連ワード (CIO/経営等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
生成AIの安全性が懸念される理由は多くある。訓練用データの収集・使用方法、有害コンテンツからユーザーを保護する方法の一貫性の欠如、ハルシネーションの可能性、誤った情報の拡散などがそれに該当する。これらの問題に取り組むため、米国政府と主要AI企業が新しい提携を結んだ。
米商務省の国立標準技術研究所(NIST)にある米国人工知能安全研究所(USAISI)は米国時間8月29日、AnthropicとOpenAIと研究、試験、評価における正式な協力について合意したと発表した。
「これらの合意により、AIの安全に関する科学を進展させるため、AnthropicとOpenAIと技術協力を開始することを楽しみにしている」とUSAISIの所長を務めるElizabeth Kelly氏はリリースで述べる。「これらの合意は始まりでしかないが、責任を持ってAIの未来を導くために作業することにおいて重要な節目となる」
両社は、主要な新しいモデルを一般提供する前後でリスクの評価・軽減が可能になるよう、USAISIにアクセスを与えることに合意している。
リリースによると、USAISIは、英国人工知能安全研究所のパートナーとも協力し、安全性向上の可能性についてフィードバックを両社に提供するという。米国と英国は、これまでもAIの安全性について協力関係にあり、5月にはAIモデルの安全性試験の開発で提携している。