Meta、安全で責任あるAI開発を支援する「Purple Llama」プロジェクトを開始
今回は「Meta、安全で責任あるAI開発を支援する「Purple Llama」プロジェクトを開始」についてご紹介します。
関連ワード (セキュリティ等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
Metaは米国時間12月7日、開発者による責任ある人工知能(AI)の開発を支援するための包括的なプロジェクト「Purple Llama」(パープル・ラマ)を発表した。
このプロジェクトの目的は、同社が2月に公開したオープンソースの大規模言語モデル「Llama」を使用する開発者に、サイバーセキュリティー向けのツールや検証、そして入出力のセーフガードを提供することだ。
同社によると、生成AIのリスクを軽減するには、攻撃(レッドチーム)と防御(ブルーチーム)の姿勢を組み合わせたパープルチームのアプローチが必要だという。プロジェクトの名称はこの考え方に基づいている。
Purple Llamaではまず、サイバーセキュリティー向けツールおよび検証、入出力のセーフガードを提供し、今後その数を拡充していく。プロジェクト内のコンポーネントはライセンス供与を行い、研究と商用の両方で利用できるようにする。これにより、開発者間の協業と、生成AIの安全性ツールの標準化を推進したい考えだ。
サイバーセキュリティーに関しては、大規模言語モデル(LLM)について、業界全体を対象にしたサイバーセキュリティーの安全性評価を行い、結果を公開する。これには、LLMのサイバーセキュリティーリスクを定量化するための指標、LLMによる安全でないAI生成コードの提案頻度を評価するツール、LLMが不正なコードを生成しにくくするための対策などが含まれる予定だ。
また、入出力セーフガードの一環として、開発者が潜在的リスクのある出力を生成しないようにするための基盤モデル「Llama Guard」を公開する。このモデルは、一般公開されている多様なデータセットで訓練されており、リスクや違反の可能性があるコンテンツを検出できる。
Metaは、7月に同社の次世代版LLM「Llama 2」を公開した際に100社以上と協業しており、今回も多数の企業と協力しつつ、オープンなアプローチを取るという。