Anthropic、悪用リスク増大を受けAIモデルの安全管理ポリシーを改定

今回は「Anthropic、悪用リスク増大を受けAIモデルの安全管理ポリシーを改定」についてご紹介します。

関連ワード (セキュリティ等) についても参考にしながら、ぜひ本記事について議論していってくださいね。

本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。


 大規模言語モデル(LLM)「Claude」ファミリーの開発元であるAnthropicが、米国時間10月15日付で、自社ソフトウェアの安全管理ポリシーを改定した。同社はこれについて、悪意ある主体が人工知能(AI)モデルを悪用してサイバー攻撃を自動化する可能性があることを反映したものだとしている。

 公開されたPDF形式の文書は、Anthropicの「責任あるスケーリングポリシー」を詳述したもので、同社がAIモデルが悪用される継続的リスクのモニタリングに必要だとする、複数の手続き上の変更が概説されている。その中では、リスクの上昇に呼応した複数のレベルが設定されている。これは「AI安全レベル基準」(ASL:AI Safety Level Standards)と呼ばれるもので、ポリシー内では「技術および運用上の防護策」と定義されている。

 AIモデルの安全性に関するAnthropicの「定期検査」(「能力評価」と呼ばれる)の一環として、同社は「大々的な調査を要し、さらに強力な防護策が必要な可能性もある」能力を発見していくとしている。

 この能力は、サイバー運用における脅威だと説明されている。これは「高度な破壊的サイバー攻撃を大幅に強化または自動化する能力」であり、「ゼロデイ攻撃を実行可能な新しいエクスプロイトチェーンの発見や、複雑なマルウェアの開発、検知が困難な広範なネットワーク侵入の画策を含むが、これらに限定されるものではない」という。

 今回公開された文書には、この件を継続的に調べるために今後とられる措置が以下のように説明されている。

 現時点で、AnthropicのAIモデルはすべて、ASLの「レベル2」の要件を満たさなければならないと、同社は述べている。レベル2とは「日和見的な攻撃者の大半を阻止するとみられるセキュリティシステムが必要となる」段階で、具体的には「ベンダーとサプライヤーによるセキュリティ評価や、物理的なセキュリティ対策、セキュアバイデザインの原則の採用が含まれる」と今回公開された文書には書かれている。

COMMENTS


Recommended

TITLE
CATEGORY
DATE
Twitterで「♯シンエヴァ」を付けると初号機の絵文字が出現
くらテク
2021-07-21 21:58
Cato Networks、日本でマネージドサービス事業者向けSASE基盤を提供開始
IT関連
2024-07-10 03:55
発展する「納品のない受託開発」–ソニックガーデンの10年を予想
IT関連
2021-07-13 17:44
GitHub、ソフトウェア部品表の作成機能を無償公開–脆弱性管理を容易に
IT関連
2023-04-09 02:00
ハッキング経験を安全性向上と信頼回復につなげる–SolarWindsが日本に説明
IT関連
2021-06-25 15:24
ランサムウェア「Hive」のハッカー、「Microsoft Exchange Server」狙う
IT関連
2022-04-24 00:13
長距離送電線の点検をドローンとAIで2日から3分間に短縮するSkyqraftがシードで2.3億円調達
ドローン
2021-01-22 19:35
アマゾンのアラバマとNYスタテンアイランド物流拠点の組合票の集計が来週から始まる
IT関連
2022-03-27 21:43
550円の「Raspberry Pi Pico」をいじり倒す :名刺サイズの超小型PC「ラズパイ」で遊ぶ(第36回)(1/2 ページ)
アプリ・Web
2021-02-17 17:13
富士通、照合業務を効率化する食品卸売業向け新サービス–三菱食品で約800時間削減
IT関連
2022-12-03 07:40
生成型AIの悪用で高度化するサイバー攻撃–グーグルの最新レポート
IT関連
2023-11-14 06:33
ソフトウェアサプライチェーンを守るグーグルの「Software Delivery Shield」
IT関連
2022-10-15 02:33
琉球朝日放送とNEC、AIアナウンサー活用の番組制作へ–専門人材の不足受け
IT関連
2024-10-09 02:22
三菱電機、「循環型デジタル・エンジニアリング企業」を表明–DX施策なども
IT関連
2022-06-02 22:17