Anthropic、悪用リスク増大を受けAIモデルの安全管理ポリシーを改定

今回は「Anthropic、悪用リスク増大を受けAIモデルの安全管理ポリシーを改定」についてご紹介します。

関連ワード (セキュリティ等) についても参考にしながら、ぜひ本記事について議論していってくださいね。

本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。


 大規模言語モデル(LLM)「Claude」ファミリーの開発元であるAnthropicが、米国時間10月15日付で、自社ソフトウェアの安全管理ポリシーを改定した。同社はこれについて、悪意ある主体が人工知能(AI)モデルを悪用してサイバー攻撃を自動化する可能性があることを反映したものだとしている。

 公開されたPDF形式の文書は、Anthropicの「責任あるスケーリングポリシー」を詳述したもので、同社がAIモデルが悪用される継続的リスクのモニタリングに必要だとする、複数の手続き上の変更が概説されている。その中では、リスクの上昇に呼応した複数のレベルが設定されている。これは「AI安全レベル基準」(ASL:AI Safety Level Standards)と呼ばれるもので、ポリシー内では「技術および運用上の防護策」と定義されている。

 AIモデルの安全性に関するAnthropicの「定期検査」(「能力評価」と呼ばれる)の一環として、同社は「大々的な調査を要し、さらに強力な防護策が必要な可能性もある」能力を発見していくとしている。

 この能力は、サイバー運用における脅威だと説明されている。これは「高度な破壊的サイバー攻撃を大幅に強化または自動化する能力」であり、「ゼロデイ攻撃を実行可能な新しいエクスプロイトチェーンの発見や、複雑なマルウェアの開発、検知が困難な広範なネットワーク侵入の画策を含むが、これらに限定されるものではない」という。

 今回公開された文書には、この件を継続的に調べるために今後とられる措置が以下のように説明されている。

 現時点で、AnthropicのAIモデルはすべて、ASLの「レベル2」の要件を満たさなければならないと、同社は述べている。レベル2とは「日和見的な攻撃者の大半を阻止するとみられるセキュリティシステムが必要となる」段階で、具体的には「ベンダーとサプライヤーによるセキュリティ評価や、物理的なセキュリティ対策、セキュアバイデザインの原則の採用が含まれる」と今回公開された文書には書かれている。

COMMENTS


Recommended

TITLE
CATEGORY
DATE
「Windows 365」の無料試用、わずか1日で予定数に到達–受付を一時停止
IT関連
2021-08-05 07:37
「Ponta経済圏」でかなえる、オンラインとリアルを横断した広告効果測定
IT関連
2023-05-24 06:32
学研「スーパー戦隊図鑑」が売れている 発売3日で増刷 「戦隊が現実にいたら」コンセプト
くらテク
2021-04-22 06:32
日立情報通信エンジニアリング、セキュアインターネット接続ソリューションを強化
IT関連
2023-03-10 01:28
「G-SHOCKである」と主張するスマートウォッチ、「GSW-H1000」の真価
PR
2021-06-22 03:09
Google、AIでファイルの種類を高速正確に判別できる「Magika」をオープンソースで公開
Google
2024-02-19 17:43
Kubernetesの利用が拡大、エッジなど最先端の用途で高い活用率
IT関連
2022-02-17 13:03
リコー、CX管理ツールを採用–「サイレントマジョリティー」の意見収集へ
IT関連
2023-01-31 18:21
iPhone 12、ペースメーカー利用者に注意喚起のワケ 15cm離して使用呼びかけ 他のスマホは?
社会とIT
2021-02-04 21:29
ピアノの演奏動画から楽譜を自動作成 ディープラーニングで 京大と理研が技術開発 :Innovative Tech
イラスト・デザイン
2021-03-18 21:05
IBM、ハイブリッドクラウドのセキュリティをシンプルに–新サービス拡充
IT関連
2021-03-26 04:31
地球温暖化で懸念されるインターネット障害の増加–大手IT企業の対策は?
IT関連
2023-03-18 16:04
賞金もゲットできる新たなトリビアクイズのモバイルアプリ「BigBrain」が登場
ゲーム / eSports
2021-05-11 21:27
入金消込作業を約90%削減–SBIビジネス・ソリューションズ、「請求QUICK」提供へ
IT関連
2022-02-10 19:17