Anthropic、悪用リスク増大を受けAIモデルの安全管理ポリシーを改定

今回は「Anthropic、悪用リスク増大を受けAIモデルの安全管理ポリシーを改定」についてご紹介します。

関連ワード (セキュリティ等) についても参考にしながら、ぜひ本記事について議論していってくださいね。

本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。


 大規模言語モデル(LLM)「Claude」ファミリーの開発元であるAnthropicが、米国時間10月15日付で、自社ソフトウェアの安全管理ポリシーを改定した。同社はこれについて、悪意ある主体が人工知能(AI)モデルを悪用してサイバー攻撃を自動化する可能性があることを反映したものだとしている。

 公開されたPDF形式の文書は、Anthropicの「責任あるスケーリングポリシー」を詳述したもので、同社がAIモデルが悪用される継続的リスクのモニタリングに必要だとする、複数の手続き上の変更が概説されている。その中では、リスクの上昇に呼応した複数のレベルが設定されている。これは「AI安全レベル基準」(ASL:AI Safety Level Standards)と呼ばれるもので、ポリシー内では「技術および運用上の防護策」と定義されている。

 AIモデルの安全性に関するAnthropicの「定期検査」(「能力評価」と呼ばれる)の一環として、同社は「大々的な調査を要し、さらに強力な防護策が必要な可能性もある」能力を発見していくとしている。

 この能力は、サイバー運用における脅威だと説明されている。これは「高度な破壊的サイバー攻撃を大幅に強化または自動化する能力」であり、「ゼロデイ攻撃を実行可能な新しいエクスプロイトチェーンの発見や、複雑なマルウェアの開発、検知が困難な広範なネットワーク侵入の画策を含むが、これらに限定されるものではない」という。

 今回公開された文書には、この件を継続的に調べるために今後とられる措置が以下のように説明されている。

 現時点で、AnthropicのAIモデルはすべて、ASLの「レベル2」の要件を満たさなければならないと、同社は述べている。レベル2とは「日和見的な攻撃者の大半を阻止するとみられるセキュリティシステムが必要となる」段階で、具体的には「ベンダーとサプライヤーによるセキュリティ評価や、物理的なセキュリティ対策、セキュアバイデザインの原則の採用が含まれる」と今回公開された文書には書かれている。

COMMENTS


Recommended

TITLE
CATEGORY
DATE
凸版印刷、SaaS型自社サービスの認証基盤の構築に「Okta CIC」導入
IT関連
2023-01-19 20:26
AWS、バグ発見と修正を競うグローバルなコンペ「AWS BugBust」発表
IT関連
2021-06-25 02:24
OpenAI、「GPT-4o」の新しいデータ分析機能を発表–有料ユーザー対象
IT関連
2024-05-21 09:36
日本の行政・企業はデジタルの地政学的リスクを注視せよ
IT関連
2021-01-21 01:14
パナ、冷凍・冷蔵機能付き宅配ロッカーの受注販売スタート
最近の注目ニュース
2021-01-13 19:55
自動追従型の荷物運搬ロボットが公道走行 交差点渡りコメ配達
IT関連
2021-05-18 01:37
機械学習のフィーチャーストアTectonがオープンソースの同サービスFeastを併合
人工知能・AI
2021-04-17 06:07
第44回:列伝4人目「伝説のひとり情シス」
IT関連
2022-09-02 01:54
AWS、「EC2-Classic」サービスを終了へ
IT関連
2021-08-02 09:49
「いまだかつてない方法でデータを捉え、知見を導き出す」–日本オラクル
IT関連
2024-02-10 19:10
Google、初の実店舗を今夏ニューヨークで開店へ FitbitやPixel製品を試して買える
企業・業界動向
2021-05-22 20:38
Microsoftの10〜12月決算、コロナ禍で売上高・純利益ともに過去最高
企業・業界動向
2021-01-28 07:34
日本オラクルと両備システムズ、自治体システムのガバメントクラウド移行で協業
IT関連
2023-10-27 18:35
rinna、日本語に特化した「GPT-2」の言語モデルをオープンソース化 学習済みモデルも公開
ロボット・AI
2021-04-09 05:44