OpenAI、「レッドチーム」を立ち上げ–AIのリスク管理強化に向け専門家を募集
今回は「OpenAI、「レッドチーム」を立ち上げ–AIのリスク管理強化に向け専門家を募集」についてご紹介します。
関連ワード (ビッグデータ等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
OpenAIの「ChatGPT」が全世界で1億人を超えるユーザーを獲得したことは、人工知能(AI)の有用なユースケースを顕在化させた一方で、規制強化の必要性も浮き彫りにしている。そこでOpenAIは、より安全で堅牢なモデルの構築を支援するチームの立ち上げに乗り出した。
OpenAIは米国時間9月19日、専門家で構成される「OpenAI Red Teaming Network」を立ち上げることを明らかにした。その狙いは、これらの専門家にリスクの評価および緩和戦略に必要な知見を提供してもらい、より安全性の高いモデルを展開することにある。
このネットワークは、OpenAIのリスク評価の取り組みを、「大規模なモデル展開の前に行われる1回限りの契約や選考プロセス」ではなく、モデルおよび製品の開発サイクルのさまざまな段階にまたがる、より正式なプロセスにするものだという。
OpenAIでは、このRed Teaming Networkの結成にあたり、教育、経済、法律、言語、政治学、心理学など、さまざまな学問の領域にバックグラウンドを持つエキスパートを募っている。
その一方で、AIシステムや言語モデルに関する経験は問わないという。
メンバーにはこのチームに費やした時間に対して報酬が支払われ、秘密保持契約(NDA)が適用される。また、メンバーはすべての新しいモデルやプロジェクトに関与するわけではないため、このチームへの参加によって拘束される時間は一番少ないケースでは年に5~10時間程度で済むこともあるという。ネットワークへの参加を希望する場合は、OpenAIのサイトから応募できる。
レッドチーム(攻撃者側の視点に立ってリスクを調査するチーム)の結成は、新しいテクノロジーの有効性をテストしたり、安全性を確保したりするために欠かせないプロセスだ。GoogleやMicrosoftなど、他の大手テクノロジー企業も、AIモデル専任のレッドチームを設置している。